music in a post-listening world

Streaming platforms produce acoustic environments no longer tied to subjectivity but to computations. Playlists like Chill Vibes or Peaceful Piano don’t create experiences; they merely keep the flow going. The sound is soft, seamless, predefined—music as a statistical flow. It’s meant to play, to operate, to monetize—but not to reach you. Listening today no longer implies relationship, but exploitation. Sound flows—and generates capital.

A track composed by an AI and played by a bot—was it ever really heard? Liz Pelly calls this Ambient Capitalism: an economy where mere playback suffices. No human needs to be present. What matters is that the interface is served. And the interface measures. It counts how often, how long, how successfully something is played. It measures resonance—without any resonator. Sound is no longer made for a conscious human ear but produced, distributed, and analyzed within a system that already functions for itself.

This leads to a radical shift:
Machines listen to themselves. They evaluate their own processes, react to their own triggers, generating feedback loops among bots, algorithms, and interfaces. In ever-tightening spirals they regulate throughput and repetition, sample-based echoes, algorithmic circularity. Human attention—once the raw material of these systems—becomes increasingly dispensable. Platforms develop auditory ecologies in which everything reacts, everything connects, yet almost nothing is addressed. A closed loop.
But this loop is not neutral. It is politically constructed—in the interest of those who operate, optimize, and exploit it. The platform is no blank slate. It is a form of property. Behind every play gesture are server farms; server farms stand on territories, and territories are power relations. The seemingly free, disembodied streaming is bound to infrastructures: power grids, licensing deals, tax havens, market dominance. Music is not simply played—it’s calculated. Those who listen contribute to the tally. Those who skip send signals. Even not listening becomes a data point. It’s a regime of evaluation without an evaluating subject. Because the platforms that let us listen also listen to us—and not out of interest, but to maximize their model. They don’t distinguish between silence and assent, only between exploitable and irrelevant. The political lies right there: in the layout of algorithms, in the weighting of response time, in the architecture of the interface. Whoever lacks a button has no voice. Whoever isn’t measured does not exist. Listening becomes an act under control—not because something is forbidden, but because everything is shaped.

Spotify, Amazon, Apple, Tencent—these platforms create not only soundscapes but ownership structures. They don’t control what is said, but what remains audible. They own the means of analysis—and thus of reality. And here a fracture opens:
What happens when these systems rely less and less on human ears? When they no longer need to extract data from our behavior, but feed themselves with their own data? Will humans then drift out of the center of exploitation?

For Benjamin Bratton, this is a conceivable turn: in his Theory of the Stack, he describes the platform no longer as a mere tool, but as a planetary layer—a global infrastructure of cloud, interface, data flows—a world-measuring architecture. Humans are not actors in it, but conduits. But: what if this planetary architecture begins to close in on itself? If the interface no longer addresses “us” but only itself? Then we would—paradoxically—be free. Not by cutting power. Not by withdrawal. But by irrelevance. Our only form of freedom would be to no longer be needed by the system.

Matteo Pasquinelli speaks in this context of “machine subjectivation”—meaning: not we model machines, but machines construct their own world relations. When they begin to listen to themselves, to generate themselves, to optimize themselves—without us—a new form of auditory autonomy emerges: a self-contained machine listening logic. And this autonomy may not be a threat, but a moment of relief. Because what if these new listening systems aren’t designed to simulate us at all? What if they develop other rhythms, other tonalities, other causalities? Post-human listening would then not be a human replica but an auditory outside: systems that don’t interpret sound, but merely capture it; that don’t communicate, but modulate; machines playing other machines—beyond any addressee. Listening without an ear.

Yuk Hui calls this “technodiversity”: the idea that technologies need not converge on one linear rationality but can hear differently, process differently, exist differently—and that this plurality opposes Silicon Valley universalism, which demands that technology work the same everywhere. From this doesn’t arise a new subject but a dispersed sound space in which human listening is only a niche—and thus becomes free.

Because in the shadow of the system, a zone of possibilities begins.
Not as a great breakout, but as an infiltration:
Into the processes. Into the routines. Into the noise.
Already whole networks of music appear that were never meant for human ears. AI-generated tracks tuned precisely to the algorithmic needs of other systems. Music that exists only because it can be discovered, indexed, and compared by machine scanning. Some streaming platforms are already crisscrossed by bot playlists—lists that exist only so that other bots can process them—a self-feeding structure whose sole aim is circulation. An acoustic perpetuum mobile that needs no audience—only functioning loops.

Machines don’t hear like us. They recognize no intent, no nuance, no emotional density. They “listen” in data: frequency, duration, repetition. Sound is not experienced but processed—as information, as metrics, as signals. It is not perception but translation. What machines hear is what can be exploited. Everything else is filtered out.
In this logic, listening itself transforms. It is disciplined—not by prohibition but by evaluation. Platforms store what we hear, how long, how often. They detect patterns and make suggestions. And so we no longer hear what we seek—but what is expected. Auditory experience is fed back into behavior, optimized for what comes next. The ear is functionalized—not by censorship, but by statistics.
Machines don’t just listen differently—they listen differently to. They prioritize. What appears as neutral data flow is actually a directed listening act: attention translated into rankings. A sound that gets clicked often gets better placement. A sound that’s listened to long gets extended. Every tone is suspected of usefulness. Machines do not decide what is good—but what remains.
Thus they turn sound into a political instrument. Not by banning, but by visibility and duration. The platform doesn’t just know what you listen to but when you drop off. Listening becomes an act under surveillance. A wrong skip, too short a listen, an unusual combo—everything is read. The machine listens to you listening. And what can’t be exploited falls away: from the feed, from the index, from the future.
But what if here—precisely in falling away—a space of possibility lies? Not through resistance—but through incompatibility?
Imagine a world where all sounds are machine-generated. Every noise a response to a preceding one. Every loop a feedback effect of earlier data. And somewhere in that fabric—a single figure. Not plugged in. Not counted. No user. No profile.
She—a glitch in the system, an unusable ear, a silent deviation.
She listens. Not to judge. Not to click. Not to keep listening. Only: to listen.
And in that act—a moment when something shifts. No algorithm can process this gesture. No system can classify it. She is useless. Empty.
But precisely therein lies her power: a listening that leaves no trace. A listening that cannot be measured. In this future, listening doesn’t begin with the expectation of receiving—but with the decision not to be addressed.
It begins where the system suffices unto itself and for the first time does not need us.
And amidst these loops, triggers, signals—a new acoustic practice emerges. One that doesn’t fight the system, but dwells at its borders.

No heroic gesture.
No manifesto.
Just another way of listening.
Listening without an addressee.
A listening that cannot be measured.
An ear that does not respond.
Could it be that the real utopia lies here?
Not in a grand exit.
But in non-participation.
In not being needed.
In the silencing of utility.



deutsch

Streamingplattformen produzieren akustische Umwelten, die nicht mehr an Subjektivität gebunden sind, sondern an Rechenoperationen. Playlisten wie Chill Vibes oder Peaceful Piano erzeugen keine Erlebnisse, sondern halten den Fluss am Laufen. Der Sound ist weich, bruchlos, vordefiniert – Musik als statistischer Flow. Sie soll laufen, wirken, monetarisieren – aber nicht ansprechen. Hören bedeutet heute nicht mehr Beziehung, sondern Verwertung. Der Klang fließt – und erzeugt Kapital. Ein Track, den eine KI komponiert und ein Bot abspielt – ist er überhaupt gehört worden?Liz Pelly¹ nennt das Ambient Capitalism: eine Ökonomie, in der das bloße Abspielen reicht. Kein Mensch muss wirklich da sein. Hauptsache: das Interface wird bedient. Und das Interface misst. Es misst, wie oft, wie lange, wie erfolgreich etwas gespielt wurde. Es misst Resonanz – ohne Resonierenden. Klang wird nicht mehr für ein bewusstes menschliches Ohr gemacht, sondern erzeugt, ausgespielt, ausgewertet in einem System, das längst für sich selbst funktioniert.

Das führt zu einer radikalen Verschiebung:
Die Maschinen hören sich selbst zu. Sie werten ihre eigenen Prozesse aus, sie reagieren auf ihre eigenen Trigger, sie erzeugen Feedbackschleifen zwischen Bots, Algorithmen und Interfaces. In immer engeren Spiralen regeln sie Durchlauf und Wiederholung, samplebasiertes Echo, algorithmische Zirkularität. Die menschliche Aufmerksamkeit – einst der Rohstoff dieser Systeme – wird zunehmend entbehrlich. Plattformen entwickeln auditive Ökologien, in denen alles reagiert, alles verbunden ist, aber kaum mehr etwas adressiert. Ein geschlossener Kreislauf. Doch dieser Kreislauf ist nicht neutral. Er ist politisch konstruiert – im Interesse jener, die ihn betreiben, optimieren, verwerten. Die Plattform ist kein leerer Ort. Sie ist eine Eigentumsform. Hinter jeder Hörbewegung stehen Serverfarmen, Serverfarmen stehen auf Territorien, und Territorien sind Machtverhältnisse. Das scheinbar freie, entkörperlichte Streaming ist gebunden an Infrastrukturen: an Stromnetze, Lizenzen, Steuervermeidung, Marktbeherrschung.
Musik wird nicht einfach gespielt – sie wird verrechnet. Wer hört, rechnet mit. Wer skippt, signalisiert. Selbst das Nicht-Hören wird zur Kennzahl. Es ist ein Regime der Bewertung ohne Bewertungssubjekt. Denn die Plattformen, die uns hören lassen, hören auch uns – und sie tun es nicht aus Interesse, sondern zur Maximierung des Modells. Sie differenzieren nicht zwischen Stille und Zustimmung, sondern zwischen verwertbar und irrelevant. Das Politische liegt genau dort: im Layout der Algorithmen, in der Gewichtung von Reaktionszeit, in der Architektur des Interfaces. Wer keinen Button hat, kann nichts sagen. Wer nicht misst, existiert nicht. So wird Hören zur Handlung unter Kontrolle – nicht, weil etwas verboten wird, sondern weil alles geformt ist.

Spotify, Amazon, Apple, Tencent – ihre Plattformen erzeugen nicht nur Klangräume, sondern Eigentumsverhältnisse. Sie kontrollieren nicht, was gesagt wird, sondern was überhaupt hörbar bleibt. Sie besitzen die Mittel zur Auswertung – und damit zur Wirklichkeit. Und genau hier öffnet sich ein Riss: Was geschieht, wenn die Systeme sich immer weniger auf menschliche Ohren beziehen? Wenn sie ihre Daten nicht mehr aus unserem Verhalten extrahieren müssen, sondern sich selbst datengerecht beliefern? Rückt der Mensch dann aus dem Zentrum der Ausbeutung?

Für Benjamin Bratton² ist das eine denkbare Wendung: In seiner Theorie des Stack beschreibt er die Plattform nicht mehr als bloßes Tool, sondern als planetarische Schicht – eine Infrastruktur aus Cloud, Interface, Datenfluss – eine Architektur der Weltvermessung. Der Mensch ist darin nicht Akteur, sondern Durchleitung. Doch: was, wenn sich diese planetarische Architektur selbstreferenziell zu schließen beginnt? Wenn das Interface nicht mehr „uns“ adressiert, sondern nur noch sich selbst? Dann wären wir – paradoxerweise – frei. Nicht durch Abschaltung. Nicht durch Rückzug. Sondern durch Irrelevanz. Unsere einzige Form der Freiheit bestünde darin, vom System nicht mehr gebraucht zu werden.

Matteo Pasquinelli³ spricht in diesem Zusammenhang von der „maschinellen Subjektivierung“ – das heißt: nicht wir bilden die Maschinen nach, sondern Maschinen konstruieren ihre eigenen Weltverhältnisse. Wenn sie beginnen, sich selbst zuzuhören, sich selbst zu generieren, sich selbst zu optimieren – ohne uns –, entsteht eine neue Form von auditiver Autonomie: eine in sich geschlossene maschinelle Hörlogik. Und diese Autonomie ist womöglich keine Bedrohung, sondern ein Moment der Entlastung.
Denn was, wenn diese neuen Hörsysteme gar nicht mehr darauf ausgelegt sind, uns zu simulieren? Was, wenn sie andere Rhythmen, andere Tonalitäten, andere Kausalitäten entwickeln? Posthumanes Hören wäre dann kein Nachbau des Menschen, sondern ein auditives Außen: Systeme, die Klang nicht interpretieren, sondern nur erfassen; die nicht kommunizieren, sondern modulieren. Maschinen, die andere Maschinen bespielen – jenseits jeder Adresse. Ein Hören ohne Ohr.

Yuk Hui⁴ nennt das Technodiversität: die Vorstellung, dass Technologien nicht auf eine lineare Rationalität hinauslaufen müssen, sondern verschieden hören, verschieden verarbeiten, verschieden existieren können – und dass sich diese Vielfalt gegen den Silicon-Valley-Universalismus richtet, der vorgibt, Technologie müsse überall gleich funktionieren. Daraus entsteht keine neue Subjektform, sondern ein zerstreuter Klangraum, in dem menschliches Hören nur noch eine Nische ist – und damit frei wird. Denn im Schatten des Systems beginnt die Zone der Möglichkeiten.
Nicht als großer Ausbruch, sondern als Einschleusung:
In die Prozesse. In die Routinen. In das Rauschen.

Inzwischen entstehen ganze Netzwerke von Musik, die nie für menschliche Ohren gedacht sind. KI-generierte Tracks, die exakt auf die algorithmischen Bedürfnisse anderer Systeme abgestimmt sind. Musik, die nur existiert, weil sie durch maschinelles Scannen entdeckt, indexiert, verglichen werden kann. Manche Streamingplattformen sind längst durchzogen von Bot-Playlisten: Playlisten, die nur deshalb bestehen, weil andere Bots sie weiterverarbeiten – eine sich selbst speisende Struktur, deren einziges Ziel die Zirkulation ist. Ein akustisches Perpetuum mobile, das kein Publikum braucht – nur funktionierende Schleifen. Maschinen hören nicht wie wir. Sie erkennen keine Intention, keine Anspielung, keine emotionale Dichte. Sie „hören“ in Daten: Frequenz, Dauer, Wiederholung. Klang wird nicht erlebt, sondern verarbeitet – als Information, als Metrik, als Signal. Es ist keine Wahrnehmung, sondern eine Übersetzung. Was Maschinen hören, ist das, was sich verwerten lässt. Alles andere: wird ausgefiltert.

In dieser Logik verwandelt sich das Hören selbst. Es wird diszipliniert – nicht durch Verbot, sondern durch Auswertung. Plattformen speichern, was wir hören, wie lange, wie oft. Sie erkennen Muster und schlagen vor. Und so hören wir nicht mehr, was wir suchen – sondern was erwartet wird. Auditive Erfahrung wird rückgekoppelt an Verhalten, optimiert für das Nächste. Das Ohr wird funktionalisiert. Nicht durch Zensur, sondern durch Statistik. Maschinen hören nicht nur anders – sie hören auch anders hin. Sie priorisieren. Was oft als neutraler Datenfluss erscheint, ist in Wahrheit ein gerichteter Hörvorgang: Aufmerksamkeit, übersetzt in Rankings. Ein Sound, der oft geklickt wird, wird besser positioniert. Ein Sound, der lange gehört wird, wird verlängert. Jeder Ton steht unter Verdacht, nützlich zu sein. Maschinen entscheiden nicht, was gut ist – sondern was bleibt. Damit verwandeln sie Klang in ein politisches Mittel. Nicht durch Zensur oder Verbot, sondern durch Sichtbarkeit und Dauer. Die Plattform weiß nicht nur, was du hörst, sondern vor allem wann du abbrichst. Hören wird zur Handlung unter Beobachtung. Ein falscher Skip, ein zu kurzes Hören, eine unübliche Kombination – alles wird gelesen. Die Maschine hört dich hören. Und was nicht verwertet werden kann, fällt heraus: aus dem Feed, aus dem Index, aus der Zukunft.

Doch was, wenn genau hier – im Herausfallen – ein Möglichkeitsraum liegt? Nicht durch Widerstand – sondern durch Inkompatibilität?

Stell dir eine Welt vor, in der alle Klänge maschinell erzeugt sind. Jedes Geräusch: eine Antwort auf ein vorhergehendes. Jeder Loop: ein Rückkopplungseffekt aus früheren Daten. Und irgendwo in diesem Gewebe – eine einzige Figur. Nicht verkabelt. Nicht gezählt. Kein Nutzer. Kein Profil.
Sie – eine Störung im System, ein unbrauchbares Ohr, eine stille Abweichung.
Sie hört. Nicht um zu bewerten. Nicht um zu klicken. Nicht um weiterzuhören.
Nur: um zu hören. Und in diesem Akt – ein Moment, in dem sich etwas verschiebt. Kein Algorithmus kann diese Geste verarbeiten. Kein System kann sie zuordnen.
Sie ist nutzlos. Leer. Aber genau darin liegt ihre Kraft: ein Hören, das keine Spur hinterlässt. Ein Hören, das nicht gemessen wird. In dieser Zukunft beginnt Hören nicht mit der Erwartung, etwas zu empfangen – sondern mit dem Entschluss, nicht gemeint zu sein. Es beginnt dort, wo sich das System selbst genügt und wir zum ersten Mal nicht gebraucht werden. Und mitten in diesen Schleifen, Triggern, Signalen – entsteht eine neue akustische Praxis. Eine, die nicht gegen das System arbeitet, sondern sich an seinen Rändern aufhält. Keine heroische Geste. Kein Manifest. Nur ein anderes Zuhören.
Ein Zuhören ohne Adressat.
Ein Hören, das sich nicht messen lässt.
Ein Ohr, das nicht antwortet.
Kann es sein, dass darin die eigentliche Utopie liegt?
Nicht im großen Ausstieg.
Sondern im Nicht-Aufgehen.
Im Nicht-Gebrauchtwerden.
Im Verstummen des Nutzens.