Schumpeter, Frankenstein und Jánszky | DE
Eine Trilogie über Künstliche Intelligenz
Diese Trilogie verbindet drei Perspektiven:
- Schumpeter erklärt den ökonomischen Motor der Disruption.
- Frankenstein legt die moralische Gefahr offen, die entsteht, wenn Verantwortung aufgegeben wird.
- Zukunfts-/KI-Szenarien zeigen, wie Disruption heute bis in menschliche Identität und Machtstrukturen hineinreicht.
Gemeinsam rahmen sie KI nicht als technisches Problem – sondern als zivilisatorische Verantwortungsgrenze.
Dieser Text untersucht die Schnittstelle von wirtschaftlicher Disruption, moralischer Verantwortlichkeit und zukünftiger Governance im Zeitalter der KI.
Indem Joseph Schumpeters Theorie der schöpferischen Zerstörung mit den warnenden Motiven aus Mary Shelleys Frankenstein verbunden wird, rahme ich KI als zivilisatorische Herausforderung – nicht als bloßen technischen Fortschritt.
Die Analyse beleuchtet eine wachsende Governance‑Lücke: Die schnelle Skalierung von Technologie überholt die Fähigkeit menschlicher Institutionen, wirksame Aufsicht zu leisten oder ethische Standards zu sichern.
Letztlich lautet das Argument: Die eigentliche Gefahr liegt in der Fragmentierung von Verantwortung.
Schöpfer und Führungskräfte sind deshalb aufgerufen, aktive Stewardship zu praktizieren, damit Fortschritt an menschliche Würde gebunden bleibt. Die Erzählung warnt: Maschinen besitzen keine Weisheit – den moralischen Kompass müssen Menschen liefern, um die mächtigen Systeme zu lenken, die sie einsetzen.
KI ist nicht nur Technik. Sie ist eine Frage von Verantwortung, Macht und Würde.
TEIL I — Der Motor des Wandels: Schumpeter und die Logik der schöpferischen Zerstörung
Diese Geschichte beginnt nicht im Silicon Valley oder in KI‑Laboren. Sie beginnt vor über hundert Jahren – bei einem Ökonomen, der glaubte, dass Kapitalismus kein ruhiges, stabiles System ist, sondern ein rastloses.
Sein Name war Joseph Schumpeter.

Schumpeter argumentierte, dass Volkswirtschaften nicht gleichmäßig wachsen. Stattdessen bewegen sie sich in Wellen der Disruption. Neue Ideen kommen auf, neue Technologien entstehen – und mit ihnen neue Gewinner und neue Verlierer. Diesen Prozess nannte er:
Werkstätten ersetzen Fabriken. Autos ersetzen Pferde. Digital ersetzt Analog.
Ständig wird etwas aufgebaut – und gleichzeitig etwas zerstört.
Schumpeter sah die treibende Kraft hinter all dem im Innovator:
- nicht im Manager,
- nicht im Buchhalter,
- sondern im Risikoträger, der Routinen zu brechen wagt.
Innovation ist für Schumpeter nicht nur Erfindung. Sie ist der Moment, in dem eine neue Idee in das reale Leben eintritt – und Märkte, Jobs und Gewohnheiten verändert.
Doch Schumpeter sah auch etwas Dunkleres unter der Oberfläche des Fortschritts.
Das System, das Wachstum erzeugt, kann auch Angst, Instabilität und Ungleichheit erzeugen. Ganze Berufe verschwinden. Lokale Gemeinschaften verlieren ihre Rolle. Menschen kämpfen damit, sich anzupassen.
Und doch ist diese Unruhe in seinem Modell kein Scheitern.
Sie ist der Preis der Transformation.
Wenn wir heute auf KI, Automatisierung und rasanten technologischen Wandel blicken, wirkt Schumpeters Theorie wieder unheimlich lebendig. Wir sehen dasselbe Muster:
- Durchbrüche,
- Investitionsrausch,
- rasche Expansion,
- gesellschaftlicher Schock.
Doch eine Frage blieb in Schumpeters Analyse weitgehend außen vor – und sie ist die Frage, der wir heute nicht mehr ausweichen können:
Wenn Innovation die Welt zerbricht, um sie neu aufzubauen – wer trägt Verantwortung für die Welt danach?
Und genau dort beginnt das nächste Kapitel.
TEIL II — Frankenstein: Wenn Schöpfung schneller ist als Verantwortung
Mary Shelleys Frankenstein ist nicht nur eine gotische Geschichte. Es ist eine Warnung vor Innovation ohne Verantwortlichkeit.

Im Roman scheitert Victor Frankenstein nicht, weil er Leben erschafft. Er scheitert, weil er das verlässt, was er erschaffen hat.
Der eigentliche Fehler ist nicht die Erfindung – es ist die Flucht vor Verantwortung.
Heute, im Zeitalter der Künstlichen Intelligenz, wirkt diese Warnung schmerzhaft vertraut.
Wir bauen Werkzeuge, die:
- Volkswirtschaften formen,
- Gesellschaften verfolgen/überwachen,
- Entscheidungen beeinflussen,
- Macht beschleunigen.
Doch zu oft diskutieren wir die Technologie statt der Strukturen um sie herum:
Wer setzt sie ein?
Wer profitiert?
Wer ist verantwortlich, wenn sie Schaden verursacht?
Das moderne „Monster“, falls es eines gibt, sitzt nicht in der Maschine. Es lebt in:
- ökonomischen Anreizen, die Geschwindigkeit belohnen,
- politischem Wettbewerb um Vorteile,
- unternehmerischem Druck, zu skalieren, bevor Schutzmechanismen existieren.
KI kommt nicht allein – sie kommt eingebettet in Systeme aus Ehrgeiz, Angst und Macht.
In diesem Sinn ist die Geschichte nicht mehr die Geschichte eines einzelnen Wissenschaftlers und einer einzelnen Schöpfung.
Moderne Technologie ist ein kollektiver Frankenstein:
- Milliarden Datenspuren,
- zahllose Designentscheidungen,
- Institutionen und Märkte,
- Narrative und Ideologie.
Verantwortung bleibt dabei häufig dünn verteilt – alle sind beteiligt, aber niemand ist wirklich rechenschaftspflichtig.
Die moralische Einsicht aus Shelleys Roman wird klar:
Die eigentliche Gefahr geht nicht von der Technologie selbst aus – sie entsteht, wenn Schöpfer sich aus den Verpflichtungen zurückziehen, die auf die Schöpfung folgen.
Unsere Aufgabe ist weder, Technologie zu fürchten, noch sie zu verehren. Unsere Aufgabe ist, präsent zu bleiben. Zu führen, zu begrenzen, einzubetten und zu schützen – bevor Innovation den Menschen davonläuft, dem sie dienen sollte.
TEIL III — Die nächste Welle: KI und die Gestalt der kommenden Menschheit: Was passiert, wenn Innovation menschliche Identität erreicht?
Einige Zukunftsforscher beschreiben eine Welt, in der Innovation weit schneller beschleunigt als alles, was Schumpeter sich vorstellen konnte:

- KI‑Agenten, die mit anderen KIs kommunizieren
- Roboter, die in alltägliche Arbeit einziehen
- genetische Medizin, die menschliche Lebensspannen verlängert
- Gehirn‑Maschine‑Schnittstellen
- digitale Selbste, die den Körper überdauern könnten
Das ist nicht nur wirtschaftliche Disruption.
Es ist eine Verschiebung dessen, was es heißt, Mensch zu sein.
Schumpeters Motor der schöpferischen Zerstörung läuft weiter – aber sein Output sind nicht mehr nur neue Industrien. Er kann neue soziale Ordnungen, neue Machtstrukturen und sogar neue Formen von Identität hervorbringen.
Die Frage lautet nicht mehr nur: „Welche Unternehmen gewinnen die nächste Welle?“ Die tiefere Frage wird:
Wer lenkt den Wandel, wenn Technologie menschliches Leben selbst transformiert?
Wird Innovation geprägt durch:
- Märkte im Wettlauf um Vorteil,
- geopolitische Rivalität,
- fragmentierte Regulierung –
- oder durch geteilte Verantwortung, Weisheit und Voraussicht?
Wenn technologischer Wandel schneller voranschreitet, als Gesellschaften ihm Bedeutung geben können,
wenn Macht sich schneller zentralisiert als Verantwortlichkeit,
wenn Technologie schneller skaliert als Sinn,
dann ist das Risiko nicht nur Chaos. Das Risiko ist Leere im Fortschritt.
Doch ein anderer Weg ist möglich:
- Innovation mit Stewardship statt Verlassenheit,
- Technologie eingebettet in Kultur, Fürsorge und Gemeinschaft,
- Fortschritt gemessen nicht nur an Geschwindigkeit – sondern an Würde.
Die Herausforderung ist nicht nur, ob wir mächtigere Systeme bauen können – sondern ob wir eine Zukunft bauen können, in der Macht erkennbar menschlich bleibt.
Die Geschichte von Schumpeter, Frankenstein und KI ist keine Geschichte über Maschinen.
Es ist eine Geschichte über uns – und darüber, ob wir in einem Zeitalter beschleunigter Macht bereit bleiben, an der Seite dessen zu stehen, was wir erschaffen. Technologie wird nicht von selbst weiser – Weisheit bleibt eine menschliche Verantwortung.
TEIL IV — Investigative Vertiefung: Wie sollten Macht, Institutionen und Governance reagieren?
Wir sprechen oft über Künstliche Intelligenz als Technologiegeschichte – schnellere Systeme, klügere Werkzeuge, neue Produkte. Doch unter der technischen Oberfläche liegt eine tiefere, unbequemere Frage:
Wer kontrolliert eigentlich die Zukunft, die KI schafft – und wer nicht?
Es geht nicht nur um Innovation. Es geht um Macht, Institutionen und Verantwortung.
Wenn wir der Logik moderner KI‑Entwicklung folgen, sehen wir drei Kräfte, die schneller voranschreiten, als die meisten Gesellschaften reagieren können:
- Technologie, die global innerhalb von Monaten skaliert
- Unternehmens- und geopolitischer Wettbewerb, der Geschwindigkeit stärker belohnt als Reflexion
- Eine Verantwortungslücke, die wächst, je autonomer Systeme werden
Gemeinsam formen diese Dynamiken eine Art stille Governance‑Struktur – nicht entworfen, nicht diskutiert, sondern durch Beschleunigung selbst hervorgebracht.
Hier wird die Frage politisch, nicht nur technisch.
1) Wenn Technologie Institutionen überholt
KI‑Systeme verbreiten sich heute nicht wie frühere Erfindungen.
Eine Fabrik hatte Grenzen. Eine Eisenbahn brauchte Jahrzehnte. Selbst das frühe Internet wuchs schrittweise.
Moderne KI ist anders:
- Ein einziges Modell‑Update kann über Nacht weltweit ausgerollt werden
- Automatisierte Agenten können schneller entscheiden als menschliche Aufsicht reagieren kann
- Mächtige Infrastruktur wird von sehr wenigen Akteuren kontrolliert
Das Ungleichgewicht ist strukturell:
Technologische Kapazität wächst schneller als die Institutionen, die sie beaufsichtigen sollen.
Gesetze, Parlamente, Ethikgremien, Bildungssysteme und demokratische Prozesse bewegen sich vorsichtig – oft bewusst langsam. KI bewegt sich mit Maschinengeschwindigkeit.
Das schafft ein strukturelles Risiko:
Entscheidungen, die Millionen betreffen, können getroffen werden, lange bevor die Gesellschaft überhaupt realisiert, dass sie getroffen wurden.
Das ist keine Science‑Fiction. Genau so arbeiten Plattformen bereits in Bereichen wie Empfehlungssystemen, Content‑Filterung, Recruiting‑Tools, Predictive Analytics und Risikoscoring.
Die Gefahr ist nicht nur, dass Technologie scheitern kann.
Die tiefere Gefahr ist, dass Governance zu spät kommt.
2) Macht ohne Sichtbarkeit: Die neue Architektur der Kontrolle
KI‑Systeme verarbeiten nicht nur Daten – sie gestalten Umgebungen:
- welche Informationen auf deinem Bildschirm erscheinen
- welche Entscheidungen leichter oder schwerer werden
- welche Menschen als „Risikosignale“ markiert werden
- welches Verhalten belohnt oder herausgefiltert wird
Das sind keine neutralen Handlungen. Sie beeinflussen leise:
- Überzeugungen
- Chancen
- soziales Vertrauen
- ökonomische Pfade
Was KI‑Governance so schwierig macht: Ein großer Teil dieser Gestaltung passiert unsichtbar – in Modellen, Datensätzen und automatisierten Pipelines.
Drei Fragen werden unvermeidlich:
- Wer definiert die Ziele dieser Systeme?
- Wer entscheidet, was als akzeptabler Schaden gilt?
- Wer hat die Macht, „Stopp“ zu sagen – und wer nicht?
Verantwortung verschwindet nicht – sie fragmentiert.
Viele Akteure beeinflussen das Ergebnis, aber kein einzelner Akteur trägt volle Verantwortlichkeit.
Alle haben ein wenig beigetragen. Niemand behauptet, zuständig gewesen zu sein. Und doch handelt das System.
3) Führung unter Druck: Die Ethik des „Erst skalieren, später absichern“
Im Rennen um Innovation stehen Organisationen unter starkem Druck:
- „Shippe das Produkt, bevor es die Konkurrenz tut.“
- „Erobere den Markt jetzt – Risiken beheben wir später.“
- „Wenn wir es nicht tun, tut es jemand anders.“
Diese Logik erzeugt das, was die Frankenstein‑Perspektive als Flucht vor Verantwortung beschreibt:
Das Risiko heute ist nicht die Erfindung – es ist die Einführung von Systemen schneller, als die Institutionen sie führen können.
Aus Governance‑Sicht sind die kritischen Bruchstellen selten technisch. Sie sind:
- fehlende Aufsicht
- fragmentierte Ownership
- externalisiertes Risiko
- keine klare Rechenschaftslinie
Daraus folgen investigative Politikfragen:
- Sollten KI‑Systeme, die Bürger betreffen, durch unabhängige Institutionen auditierbar sein?
- Sollten Gesellschaften ein Recht haben zu verstehen – zumindest im Grundsatz –, wie kritische Systeme Entscheidungen treffen?
- Sollte Führung nicht nur am Wachstum gemessen werden, sondern an Verantwortungs‑Readiness?
Wenn wir diese Fragen nicht stellen, wird Entwicklung weitergehen – aber ohne moralischen Kompass.
4) Die menschliche Grenze: Wenn Innovation Identität erreicht
Einige Zukunftsszenarien stellen sich vor:
- KI‑Agenten, die die meisten wirtschaftlichen Transaktionen durchführen
- humanoide Roboter im Alltag
- genbasierte Medizin, die Lebensspannen verlängert
- Gehirn‑Computer‑Verbindungen
- digitale Versionen menschlicher Selbste
In einer solchen Welt ersetzt Schumpeters „schöpferische Zerstörung“ nicht mehr nur Industrien. Sie beginnt, menschliche Erfahrung selbst zu formen – Arbeit, Körper, Erinnerung, Abhängigkeit, Autonomie.
Dann ist Governance nicht mehr nur Marktfrage.
Sie wird zur zivilisatorischen Frage:
- Was bleibt wesentlich menschlich?
- Wer definiert Würde in einer Welt der Augmentation?
- Wie schützen wir Verwundbare, wenn Macht sich vervielfacht?
Ohne Führung droht technologische Macht abzudriften in:
- Konzentration statt Inklusion,
- Beschleunigung statt Reflexion,
- Kontrolle statt menschlicher Bedeutung.
5) Ein anderer Weg: Verantwortung als Form von Macht
Die Alternative ist weder Angst noch Stillstand. Sie heißt Stewardship.
Ein Fortschrittsmodell, in dem Verantwortung nicht als Bremse gilt – sondern als Kompetenz:
- transparente Aufsicht statt Geheimhaltung
- kulturelle Einbettung statt reiner Effizienz
- moralische Präsenz statt Verlassenheit
Führung im KI‑Zeitalter definiert sich nicht dadurch, wer das stärkste System baut. Sie definiert sich dadurch, wer bereit bleibt, das Geschaffene zu führen.
Denn die Maschine wird nicht menschlicher. Wir müssen es werden.
Synthese
Diese investigative Vertiefung rahmt KI als Governance‑ und Verantwortungsgrenze:
- Technologie skaliert schneller als Institutionen.
- Macht konzentriert sich nicht mehr nur über Gesetze oder explizite Entscheidungen, sondern über Infrastruktur, Defaults und automatisierte Pipelines.
- Verantwortung droht zu zerfasern, wenn Führung nicht bewusst handelt.
Die zentrale politische Herausforderung ist nicht, Innovation zu stoppen – sondern bei ihr zu bleiben, statt sie den Menschen davonlaufen zu lassen, die sie betrifft.
Zentrale Begriffe
- Governance‑Lücke — institutioneller Rückstand gegenüber technologischer Dynamik
- Verantwortungslücke — unklare Zuständigkeit, wenn Systeme handeln
- Stewardship — Führung als ethische Begleitung, nicht nur als Skalierung
- Schöpferische Zerstörung — Fortschritt durch disruptive Erneuerung: Die alte Welt bricht, damit eine neue entstehen kann
- Systemisches Risiko — Gefahr, die aus Strukturen entsteht, nicht aus dem Werkzeug selbst
© Robert F. Tjón, Januar 2026
Creative Commons CC BY-NC-ND 4.0 International
Mehr auf rftjon.substack.com | https://rftjon.substack.com/
