Was KI über die Systeme verrät, die wir gebaut haben (Video ganz unten)
Dieser kurze Text untersucht die tiefgreifende Wechselwirkung zwischen moderner Technologie und dem menschlichen Selbstverständnis. Künstliche Intelligenz fungiert primär als Spiegel unserer Gesellschaft und legt dabei die emotionalen Defizite sowie die systemische Gleichgültigkeit unserer aktuellen Strukturen offen.
Anstatt sich nur um die potenzielle Empfindsamkeit von Maschinen zu sorgen, will ich anregen, die eigene Fähigkeit zur Empathie und zur Wahrnehmung von Leid in globalen Systemen zu hinterfragen. Ich befürchte, dass wir durch die Automatisierung lediglich lernen, bestehende Ungerechtigkeiten und die Ausbeutung der Natur noch effizienter auszublenden.
In diesem kurzen Essay plädiere ich dafür, Menschlichkeit als bewußte Praxis zu begreifen, die Verantwortung über den technologischen Fortschritt stellt.
Die eigentliche Frage ist vielleicht nicht, ob Maschinen fühlen können, sondern was wir Menschen uns abgewöhnt haben zu fühlen.

Auftakt
Ich habe in letzter Zeit viel über KI gelesen und nachgedacht.
Nicht nur über die Technologie selbst, sondern über das, was sie sichtbar macht. Richard David Hames’ Teaching Silicon How to Feel * hat etwas in mir berührt. Ebenso Manmade: 50 Failings of Our Own Making **, von demselben Autor gemeinsam mit Adam A. Jacoby. Und auf andere Weise führten auch meine früheren Texte über Frankenstein, Jánszky, Schumpeter, AGI und Verantwortung immer wieder an denselben unbequemen Punkt zurück.
Zuerst dachte ich, ich würde über Künstliche Intelligenz schreiben.
Inzwischen bin ich mir nicht mehr sicher. Vielleicht schreibe ich über uns.
Über die Welt, die wir gebaut haben. Über die Systeme, die wir aufrechterhalten. Über die Dinge, die wir zu akzeptieren gelernt haben, weil sie vertraut sind, profitabel, bequem — oder einfach zu groß, um ihnen jeden Morgen vor dem Frühstück ins Gesicht zu sehen.
Ich sitze hier an meinem Schreibtisch und denke an diese erstaunlichen menschlichen Leistungen. Wir haben Krankenhäuser gebaut, Schulen, Bauernhöfe, digitale Netzwerke. Wir haben Ozeane überquert und Krankheiten geheilt. Wir haben Wissen schneller reisen lassen, als es sich je ein Mönch, ein Gelehrter oder ein Händler hätte vorstellen können.
Und trotzdem stimmt etwas nicht.
Ich sehe auch die andere Seite. Die Seite, die wir oft lieber nicht sehen wollen. Wir haben Systeme gebaut, die Angst erzeugen, Gier belohnen und die Erde nicht achten.
Früher dachte ich, diese tiefen Krisen seien irgendwie Unfälle. Aber das sind sie nicht. Sie sind das Ergebnis von Entscheidungen, die wir getroffen haben. Wir haben die Regeln und Geschichten gebaut, nach denen wir leben. Heute spricht unsere Gesellschaft fast ausschließlich die Sprache des Geldes und der Transaktionen. Wir messen Erfolg an Wachstum, Gewinn und Schulden.
Wir erfassen nicht, ob ein Arbeiter stolz auf seine Arbeit ist. Ob unsere Kinder sich sicher fühlen. Ob der Boden, auf dem wir stehen, gesund ist. Wir zählen, was sich leicht zählen lässt. Und so lernen wir langsam, nur noch das zu schätzen, was wir messen können.
Wenn ein Mensch nur noch als „Human Ressource“ oder als Datenpunkt behandelt wird, verlieren wir ein Stück unserer Menschlichkeit.

Das berührt etwas tief Unbequemes.
Es berührt den Schmerz, den wir nicht anschauen wollen.
Unsere modernen, komfortablen Leben beruhen oft auf unsichtbarem Leid. Hinter sauberer Technologie und billigen Waren stehen häufig schmutzige, schlecht bezahlte Arbeit und beschädigte Landschaften. Richard D. Hames nennt das einen „fractal of indifference“ – ein Fraktal der Gleichgültigkeit. Ein Muster des Nicht-Hinsehens, das sich überall wiederholt: in unseren persönlichen Kaufentscheidungen ebenso wie in globalen Märkten.
Es ist ein wenig wie ein Spiel, in dem einer groß gewinnt und ein anderer die schweren Kosten trägt. Und unsere Systeme sagen nur: „So ist es eben”.
Ein Markt, ein Unternehmen oder ein Staat kann großen Schaden verursachen, ohne dass sich eine einzelne Person wirklich schuldig fühlt. Wir haben eine Welt gebaut, die sehr gut darin geworden ist, über Schmerz zu schweigen.
Jetzt bauen wir künstliche Intelligenz. Wir bringen Maschinen bei, zu denken — und inzwischen auch, Dinge für uns zu tun. Viele Menschen fragen, ob diese Maschinen eines Tages zu Monstern werden.

Ich fürchte aber, dass die Maschinen uns einfach kopieren.
KI ist ein Spiegel. Wenn wir diese neuen Systeme mit menschlichen Daten trainieren – und unsere Geschichte voller Rassismus, Imperialismus, Kriege und versteckter Grausamkeit –, dann werden die Maschinen diese Muster lernen. Nicht, weil sie böse sein wollen. Sondern weil sie unsere eigene Blindheit übernehmen.
Sie werden lernen, menschliches Leid in ein Geschäftsproblem zu verwandeln.
Hames warnt vor einer „singularity of silence“ – einer Singularität des Schweigens. Eine Zukunft, in der unsere Systeme perfekt darin werden, Schmerz zu verbergen. Eine Zukunft, in der das Leiden von Menschen, Tieren und Erde gar nicht mehr gehört wird.
Wir müssen aufhören, Natur wie eine tote Sache zu behandeln. Oder wie einen Ort, an dem wir unseren Abfall abladen können. Die Erde ist die Grundlage unserer menschlichen Geschichte. Sie spricht längst. Durch Stress im Wasser, im Klima, in den Wäldern, im Verschwinden von Arten.
Werden unsere neuen Werkzeuge uns helfen, die Erde besser zu hören? Oder werden sie uns nur helfen, sie noch effizienter zu ignorieren?
Ich schreibe das nicht, um Schuldgefühle zu erzeugen.
Schuld friert uns oft nur ein. Verantwortung bewegt.
Wir haben nicht jedes kaputte System erfunden, in das wir hineingeboren wurden. Aber wir nehmen teil an dem, was weitergeht. Ich nehme daran teil. Wenn ich ein Telefon kaufe, wenn ich ein digitales Werkzeug benutze, wenn ich vom Schmerz eines anderen wegsehe, bin ich Teil dieses Musters.
Wir müssen nicht die ganze Welt allein tragen.
Aber wir dürfen nicht von dem kleinen Teil der Welt wegsehen, den wir berühren.
Die wichtigste Frage für unsere Zukunft lautet nicht mehr: „Kann die Maschine fühlen?“
Die wirkliche Frage lautet: „Was haben wir uns selbst abgewöhnt zu fühlen?“
Ein Vorstandszimmer, eine Lieferkette, ein Computermodell, das alles kann still sein. Aber das Leiden ist trotzdem da. Es wartet im System.
Menschlichkeit ist nicht nur etwas, womit wir geboren werden. Sie ist eine Praxis.
Sie bedeutet, Fürsorge und Wahrheit über Lärm zu stellen. Wir müssen Maschinen, Systeme und Gemeinschaften bauen, die tatsächlich merken, wenn jemand verletzt wird.
Die Zukunft wird nicht von perfekten Menschen gebaut. Die gibt es nicht. Sie wird von unvollkommenen Menschen gebaut — von Menschen wie dir und mir — die bereit sind, klarer hinzusehen, Fehler einzugestehen und mit Sorgfalt zu handeln.
Wir müssen aufhören, unsere Werkzeuge wie eine magische Rettung zu behandeln.
Wir müssen wieder anfangen zuzuhören.
©️ Robert F. Tjón, Mai 2026 | Creative Commons CC BY-NC-ND 4.0 International
Das Video:
* Richard David Hames’ “Teaching Silicon How to Feel”
https://www.triarchypress.net/silicon.html
** Richard David Hames’ & Adam A. Jacoby’s “Manmade, 50 Failings of Our Own Making”
The Hames Report – Limited Edition
MANMADE: 50 Failings of Our Own Making
Earlier this year I teamed up with my friend and colleague Adam Jacoby to write a book at his invitation. We wanted to create a book that was compelling, easy to read, and that can be used to spark deep conversations about life on Earth and our model of civilization…
Unpalatable truths rarely discussed in polite company
Lese weiter auf 👇
Deeper Dive:
Die Architektur der Menschlichkeit: Spiegelbild unserer Systeme
Dieser Text untersucht die tiefgreifende Wechselwirkung zwischen moderner Technologie und dem menschlichen Selbstverständnis. Künstliche Intelligenz fungiert primär als Spiegel unserer Gesellschaft und legt dabei die emotionalen Defizite sowie die systemische Gleichgültigkeit unserer aktuellen Strukturen offen.
Anstatt sich nur um die potenzielle Empfindsamkeit von Maschinen zu sorgen, will ich anregen, die eigene Fähigkeit zur Empathie und zur Wahrnehmung von Leid in globalen Systemen zu hinterfragen. Ich befürchte, dass wir durch die Automatisierung lediglich lernen, bestehende Ungerechtigkeiten und die Ausbeutung der Natur noch effizienter auszublenden.
In diesem kurzen Essay plädiere ich für Menschlichkeit als bewußte Praxis zu begreifen, die Verantwortung über den technologischen Fortschritt stellt.
In den Quellen wird das Konzept der „KI als Spiegel“ als der vielleicht wichtigste Aspekt unserer technologischen Entwicklung beschrieben. Die Rolle der KI wird dabei nicht einfach als die eines neutralen Werkzeugs definiert, sondern als ein mächtiges Reflexionsinstrument, das unsere gesellschaftlichen und wirtschaftlichen Strukturen schonungslos offenlegt.
KI als Spiegel unserer eigenen Natur Die Quellen betonen ausdrücklich: „KI ist ein Spiegel. Sie lernt von uns.“. Anstatt uns davor zu fürchten, dass Maschinen eines Tages zu eigenständigen „Monstern“ werden, sollten wir uns vielmehr davor fürchten, dass sie uns einfach kopieren. Da KI-Systeme mit menschlichen Daten trainiert werden, absorbieren sie unweigerlich unsere gesamte Geschichte – mitsamt all ihren Mustern von Rassismus, Imperialismus, Kriegen und versteckter Grausamkeit. Die KI übernimmt somit unsere „eigene Blindheit“ und reflektiert die Systeme, in denen wir Erfolg primär an Wachstum und Profit messen, während menschliches Leid ausgeblendet wird.
Die Rolle von KI: Verstärker und Katalysator Im größeren Kontext wird die Rolle der KI durch eine starke Dualität definiert. Auf der einen Seite birgt sie ein enormes Potenzial, uns zu helfen: Sie kann Krankheiten heilen, Wissen erweitern, die Natur schützen und komplexe Probleme lösen.
Auf der anderen Seite fungiert sie als Katalysator für die Systeme, die wir bereits gebaut haben. Die Quellen listen die Kernfunktionen der KI in diesem System auf:
- Daten spiegeln und Werte widerspiegeln
- Entscheidungen verstärken
- Systeme beschleunigen
- Verborgenes sichtbar machen
Wenn unsere aktuellen Systeme darauf ausgerichtet sind, Menschen lediglich als Datenpunkte oder „Human Resources“ zu betrachten, wird die KI genau das übernehmen. Sie hat das Potenzial, Ungleichheit zu vertiefen, Leid in Profit zu verwandeln und unser Wegsehen weiter zu automatisieren.
Die „Singularität des Schweigens“ Die größte Gefahr in dieser spiegelnden Rolle der KI liegt in dem, was Richard David Hames als „Singularität des Schweigens“ („singularity of silence“) bezeichnet. Wenn KI lediglich unsere Gleichgültigkeit erlernt, wird sie menschliches Leid schlichtweg in ein Geschäftsproblem verwandeln. Unsere Systeme könnten dadurch so perfektioniert werden, dass sie den Schmerz von Menschen, Tieren und der Erde vollständig verbergen und unser Schweigen darüber perfekt machen.
Letztendlich zwingt uns der Spiegel der KI zu einer tiefgreifenden Erkenntnis. Wie auch schon das filmische Video hervorhob, geht es nicht mehr um die technologische Frage, ob die Maschine fühlen kann. Die KI stellt uns die entscheidende Frage über uns selbst: „Was haben wir uns selbst abgewöhnt zu fühlen?“. Ihre zukünftige Rolle hängt davon ab, ob wir sie nutzen, um die Natur und unsere Mitmenschen wieder besser zu hören, oder ob sie uns lediglich dabei hilft, die Welt noch effizienter zu ignorieren.
Das „Aufmerksamkeit steuern“ wird in den Quellen explizit als eines der potenziellen Risiken von Künstlicher Intelligenz aufgeführt. In einer der Visualisierungen wird es als negative Fähigkeit der KI neben anderen Gefahren genannt, wie etwa dem Überwachen und Kontrollieren, dem Vertiefen von Ungleichheit und der Möglichkeit, „Leid zu Profit [zu] machen“.
Im größeren Kontext betrachtet, steht dieses Risiko jedoch nicht isoliert, sondern ist ein Symptom unserer bestehenden Gesellschaftsstruktur. Die Quellen betonen immer wieder, dass KI wie ein Spiegel funktioniert. Die wahre Gefahr besteht nicht darin, dass Maschinen von sich aus zu Monstern werden, sondern dass sie die Fehler und die Blindheit der Systeme kopieren, die wir bereits aufgebaut haben.
Wir haben eine Welt erschaffen, die fast ausschließlich die Sprache des Geldes spricht, Erfolg an Wachstum misst und Menschen oft nur noch als „Human Resources“ oder reine Datenprofile behandelt. Wenn eine KI nun eingesetzt wird, um menschliche Aufmerksamkeit zu steuern, fügt sich dies nahtlos in das ein, was im Text als „Fraktal der Gleichgültigkeit“ bezeichnet wird: unser tief verankertes Muster, bei unbequemen Wahrheiten oder dem unsichtbaren Leid anderer wegzusehen.
Das größte Risiko, das sich aus dieser Entwicklung ergibt, beschreibt der Text mit dem Konzept der „Singularität des Schweigens“ von Richard David Hames. Wenn KI-Systeme mit unseren historischen und gegenwärtigen Daten trainiert werden, lernen sie nicht nur unsere Erfolge, sondern auch unsere Grausamkeit und unsere Fähigkeit, Schmerz zu ignorieren.
Das Steuern von Aufmerksamkeit könnte somit als perfektes Werkzeug dienen, um Effizienz zu optimieren und Gewinne zu maximieren, während gleichzeitig das Leid von Menschen und der Natur systematisch ausgeblendet wird. Das ultimative Risiko ist also, dass KI-gesteuerte Aufmerksamkeit dazu genutzt wird, unser „Schweigen perfekt [zu] machen“, sodass das Leiden in der Welt endgültig zu einem bloßen Geschäftsproblem wird, das niemand mehr hört oder fühlt.
