In der heutigen digitalen Welt sind maschinelles Lernen und algorithmische Systeme allgegenwärtig. Sie prägen nicht nur unser Nutzerverhalten, sondern beeinflussen in subtiler Weise auch die Entstehung von Subjektivität und Machtverhältnissen. Hier eröffnet sich ein besonders spannendes Feld, das sich mit dem sogenannten „maschinischen Unbewussten“ beschäftigt – einem Konzept, das weit über traditionelle Vorstellungen menschlichen Bewusstseins hinausgeht und die komplexen Interaktionen zwischen Mensch und Technik in den Vordergrund rückt. Der Begriff des maschinischen Unbewussten wurde durch den französischen Philosophen Félix Guattari geprägt, der eine Form von Bewusstsein vorschlägt, die unabhängig vom individuellen menschlichen Subjekt existiert. Dieses Bewusstsein manifestiert sich als Bestandteil von sozialen, technischen und datenverarbeitenden Systemen und ist nicht unbedingt bewusst, sondern vielmehr proto-subjektiv und maschinisch.
Es handelt sich dabei nicht um eine Form von Geist im klassischen Sinne, sondern um semiotische Prozesse, die unterhalb der Schwelle individuierter Subjektivität operieren. Sie sind nicht-repräsentational, nicht-assignifizierend und bilden eine Art nicht-menschliches Beziehungsgeflecht, das in technischen Apparaturen wie Recommender-Systemen wirksam wird. Die Auseinandersetzung mit maschinellem Lernen und dem maschinischen Unbewussten eröffnet gleichzeitig die Vorstellung, dass Subjektivität nicht nur ein Produkt menschlicher Gehirne und Körper ist, sondern in einem hybriden Geflecht von Mensch und Maschine entsteht. Gilles Deleuze und Félix Guattari haben bereits mit ihrem Konzept der Assemblagen einen theoretischen Rahmen geschaffen, der das Politische als durchdringend ansieht – sowohl im makro- als auch im mikropolitischen Sinne. Diese Perspektive erlaubt es, maschinelles Lernen nicht nur als technische Disziplin zu begreifen, sondern als Mikropolitik, die Machtstrukturen und Subjektkonstitution prägt.
Am Beispiel des Recommender-Systems LightFM lässt sich diese theoretische Einsicht praktisch nachvollziehen. LightFM ist ein quelloffenes System, das Produktempfehlungen durch Einbettung von Nutzer- und Produktdaten in Vektorräume ermöglicht. Nutzer-Interaktionen werden dabei in einer zweidimensionalen Matrix abgebildet, in der jede Zeile einem Nutzer und jede Spalte einem Produkt entspricht. Die Zellen enthalten binäre Werte, die anzeigen, ob ein bestimmter Nutzer mit einem Produkt interagiert hat oder nicht. Aus dieser großen Matrix werden transformierte, komprimierte Vektoren errechnet, die wiederum zur Vorhersage von Nutzerverhalten genutzt werden.
Obwohl dieser Vorgang technisch kryptisch erscheint, repräsentiert er eine komplexe semiotische Operation, in der subjektive Präferenzen in abstrakten numerischen Räumen abgebildet und in Echtzeit neu konstituiert werden. Diese Transformation von Nutzerdaten zu Vektoren ist mehr als eine rein technische Operation, sie hat auch eine tiefgreifende politische Dimension. Die Matrizen, in denen Nutzerdaten verwandelt werden, sind modernisierte Formen von Tabellen, die seit Jahrtausenden Mittel zur Kontrolle darstellen. Die Erweiterung dieser Tabellen zu multidimensionalen Vektorräumen spiegelt eine neue Modalität gesellschaftlicher Überwachung wider, in der Individuen in fragmentierte Datenpunkte, sogenannte „dividuale“, verwandelt werden. Diese dividualen Datenfragmente bilden die Grundlage für algorithmische Vorhersagen, die nicht nur Verhalten antizipieren, sondern gezielt lenken können – ein Prozess, der sich von klassischen Disziplinierungstechniken zu umfassenderen Gesellschaftsformen der Kontrolle wandelt.
Ein weiterer Aspekt ist die Betrachtung der Infrastruktur, auf der maschinelles Lernen basiert. Benjamin Bratton hat mit seinem Modell des „Stacks“ eine Struktur entworfen, die globale Rechenzentren, Cloud-Services und Nutzerinterfaces als miteinander verknüpfte Ebenen betrachtet. Diese Ebenen reichen von den grundlegenden geologischen Ressourcen bis hin zur individuellen Nutzererfahrung. Das maschinische Unbewusste operiert vor allem auf der „Cloud“-Ebene, einer materiellen und digitalen Schnittstelle, auf der Daten verarbeitet, vernetzt und transformiert werden. Von dort aus entfaltet sich eine raum- und zeitübergreifende Kontrolle, die sich in der Nutzerperspektive als empathielose, aber wirkmächtige Einflussnahme zeigt.
Das Potenzial dieser Technologien zur Vorhersage und Steuerung ist eng verbunden mit der Asignation, das heißt der Entkoppelung von Bedeutung und sinnhaftem Verständnis zugunsten rein numerischer Korrelationen und Muster. Die Systeme sind nicht darauf ausgelegt, Gründe zu verstehen, sondern ausschließlich darauf, vorherzusagen. Dies führt zu einer Form von algorithmischer Macht, die durchsichtig und gleichzeitig undurchschaubar ist. Das maschinische Unbewusste verweigert eine klare Repräsentation, agiert stattdessen über die Faltung von Datenströmen und mathematischen Operationen – eine „Geisterhaftigkeit“, die sowohl faszinierend als auch beängstigend ist. Im Zusammenspiel von algorithmischer Verarbeitung, materieller Infrastruktur und Nutzerinteraktion entsteht ein hybrides Subjekt, das aus menschlichen und nicht-menschlichen Komponenten besteht.
Rosi Braidotti spricht von nomadischen Subjekten im Prozess, die sich im permanenten Fluss befinden. Proto-Subjektivitäten sind fragmentiert, entfalten sich aber in konstanten Bewegungen innerhalb des Stacks, werden Teil von multiplen Identitätsformationen und bilden gleichzeitig die Grundlage dessen, was wir als Nutzer handeln und wahrnehmen. Dieser holistische Blick auf maschinelles Lernen als techno-soziales Phänomen fordert eine kritische Beschäftigung mit den Impliziten Machtmechanismen, die sich in den Algorithmen und deren Implementierungen verbergen. Es reicht nicht aus, Modelle nur technisch oder statistisch zu betrachten. Wir müssen die semiotischen und politischen Implikationen reflektieren, die sich aus der Komposition von Code, Daten und Infrastrukturen ergeben.
Die Quellen von Kontrolle und Beherrschung verlagern sich zunehmend in diese unsichtbaren Algorithmus-Schichten, die jedoch direkte Wirkungen im sozialen Leben entfalten. Abschließend ist die Auseinandersetzung mit dem maschinischen Unbewussten ein Beitrag zur posthumanistischen Theorie, der versucht, die Grenzen zwischen Mensch und Maschine zu verschieben und die vielfältigen Dimensionen von Subjektivität und Macht in einer digitalisierten Welt zu entschlüsseln. Maschinelles Lernen ist dabei nicht nur eine technische Errungenschaft, sondern ein Mikrokosmos gesellschaftlicher Prozesse, der uns dazu aufruft, Fragen nach Autonomie, Kontrolle und Identität neu zu stellen. Die Herausforderungen, die sich daraus ergeben, sind enorm, eröffnen aber auch die Möglichkeit, ein kritisch-reflexives Verhältnis zu den technischen Systemen zu entwickeln, die unser Leben zunehmend prägen.