Schumpeter, Frankenstein et Jánszky | FR

Une trilogie sur l’intelligence artificielle

Cette trilogie relie trois perspectives :

  • Schumpeter explique le moteur économique de la disruption.
  • Frankenstein révèle le danger moral qui apparaît lorsque la responsabilité est abandonnée.
  • Les scénarios futurs de l’IA montrent comment la disruption atteint désormais l’identité humaine et les structures de pouvoir.

Ensemble, elles présentent l’intelligence artificielle non comme un problème technique, mais comme une frontière de responsabilité civilisationnelle.

Ce texte explore l’intersection entre disruption économique, responsabilité morale et gouvernance future à l’ère de l’intelligence artificielle.

En mettant en dialogue la théorie de la destruction créatrice de Joseph Schumpeter et les avertissements moraux de Frankenstein de Mary Shelley, l’IA est abordée comme un défi civilisationnel plutôt que comme un simple progrès technique.

L’analyse met en évidence un fossé croissant de gouvernance : la rapidité de déploiement des technologies dépasse la capacité des institutions humaines à exercer une supervision effective ou à maintenir des normes éthiques.

Le véritable danger réside dans la fragmentation de la responsabilité. Créateurs et dirigeants sont donc appelés à pratiquer une stewardship active afin que le progrès reste lié à la dignité humaine. Les machines ne possèdent pas la sagesse ; le compas moral doit venir des humains.

L’intelligence artificielle n’est pas seulement une technologie — elle marque une frontière de responsabilité civilisationnelle.

PARTIE I — Le moteur du changement : Schumpeter et la logique de la destruction créatrice

Cette histoire ne commence ni dans la Silicon Valley ni dans des laboratoires d’IA. Elle commence il y a plus d’un siècle, avec un économiste convaincu que le capitalisme n’est pas un système calme et stable, mais profondément instable.

Son nom était Joseph Schumpeter.

Schumpeter soutenait que les économies ne croissent pas de manière fluide. Elles évoluent par vagues de disruption. De nouvelles idées apparaissent, de nouvelles technologies émergent — et avec elles de nouveaux gagnants et de nouveaux perdants.

Les ateliers sont remplacés par des usines. Les chevaux par les automobiles. L’analogique par le numérique.

Quelque chose se construit toujours — et quelque chose se détruit toujours.

Pour Schumpeter, la force motrice de ce processus est l’innovateur :

  • pas le gestionnaire,
  • pas le comptable,
  • mais celui qui prend des risques et ose rompre avec les routines.

L’innovation n’est pas seulement l’invention. Elle est le moment où une idée nouvelle entre dans la vie réelle et transforme marchés, emplois et habitudes.

Mais Schumpeter percevait également un versant plus sombre. Le système qui produit la croissance génère aussi la peur, l’instabilité et les inégalités. Des professions disparaissent. Des communautés perdent leur rôle. Des individus peinent à s’adapter.

Dans son modèle, cette turbulence n’est pas un échec.

Elle est le prix de la transformation.

Aujourd’hui, face à l’IA, à l’automatisation et à l’accélération technologique, la théorie de Schumpeter retrouve une résonance troublante.

  • percées technologiques
  • ruées d’investissement
  • expansion rapide
  • chocs sociaux

Si l’innovation détruit le monde pour le reconstruire — qui est responsable du monde qui suit ?

C’est à cet endroit précis que commence le chapitre suivant.

PARTIE II — Frankenstein : quand la création dépasse la responsabilité

Frankenstein de Mary Shelley n’est pas seulement un récit gothique. C’est un avertissement contre l’innovation sans responsabilité.

Victor Frankenstein n’échoue pas parce qu’il crée la vie, mais parce qu’il abandonne ce qu’il a créé.

L’erreur fondamentale n’est pas l’invention — c’est la fuite devant la responsabilité.

À l’ère de l’intelligence artificielle, cet avertissement semble étrangement familier.

Nous développons des outils capables de :

  • façonner les économies
  • surveiller les sociétés
  • influencer les décisions
  • accélérer le pouvoir

Mais trop souvent, le débat porte sur la technologie plutôt que sur les structures qui l’entourent :

  • Qui la déploie ?
  • Qui en profite ?
  • Qui est responsable lorsqu’un dommage survient ?

Le « monstre » moderne, s’il existe, ne réside pas dans la machine. Il vit dans des systèmes d’incitation fondés sur la vitesse, la compétition politique et la pression à la mise à l’échelle avant l’existence de garde-fous.

L’IA n’arrive jamais seule. Elle arrive au sein de systèmes d’ambition, de peur et de pouvoir.

La technologie moderne devient ainsi un Frankenstein collectif :

  • des milliards de traces de données
  • d’innombrables choix de conception
  • des institutions et des marchés
  • des récits et des idéologies

La responsabilité se dilue : tout le monde contribue, mais personne n’est véritablement comptable.

Le danger ne vient pas de la technologie elle-même — il surgit lorsque les créateurs se retirent des obligations qui suivent l’acte de créer.

Notre tâche n’est ni de craindre la technologie ni de la vénérer. Elle est de rester présents : guider, limiter, intégrer et protéger — avant que l’innovation ne devance les êtres humains qu’elle était censée servir.

PARTIE III — La vague suivante : l’IA et la forme de la prochaine humanité

Certains scénarios prospectifs décrivent un monde où l’innovation s’accélère bien au-delà de ce que Schumpeter pouvait imaginer :

  • des agents d’IA interagissant entre eux
  • des robots intégrés au travail quotidien
  • une médecine génétique prolongeant la durée de vie
  • des interfaces cerveau–machine
  • des identités numériques susceptibles de survivre au corps

Il ne s’agit plus seulement de disruption économique.

Il s’agit d’une transformation de ce que signifie être humain.

Le moteur schumpétérien continue de fonctionner, mais ses résultats ne se limitent plus à de nouvelles industries. Il peut produire de nouveaux ordres sociaux, de nouvelles structures de pouvoir et de nouvelles formes d’identité.

La question n’est plus : qui gagnera la prochaine vague — mais qui guidera le changement.

L’innovation sera-t-elle façonnée par la course aux marchés, la rivalité géopolitique et une régulation fragmentée — ou par une responsabilité partagée, la sagesse et la prévoyance ?

Lorsque la technologie progresse plus vite que la capacité des sociétés à lui donner du sens, lorsque le pouvoir se concentre plus rapidement que la responsabilité, le risque n’est pas seulement le chaos : c’est le vide au cœur du progrès.

Une autre voie existe :

  • l’innovation accompagnée plutôt qu’abandonnée
  • la technologie inscrite dans la culture, le soin et la communauté
  • un progrès mesuré non seulement par la vitesse, mais par la dignité

L’enjeu n’est pas seulement de construire des systèmes plus puissants, mais de bâtir un avenir dans lequel le pouvoir demeure reconnaissablement humain.

Cette trilogie n’est pas une histoire de machines. C’est une histoire sur nous — et sur notre capacité à rester aux côtés de ce que nous créons. La technologie ne deviendra pas plus sage d’elle-même ; la sagesse demeure une responsabilité humaine.

PARTIE IV — Approfondissement investigatif : pouvoir, institutions et gouvernance

L’IA est souvent présentée comme une histoire technologique — des systèmes plus rapides, des outils plus intelligents. Mais sous la surface technique se cache une question plus dérangeante : qui contrôle réellement l’avenir que l’IA est en train de créer ?

Il ne s’agit pas uniquement d’innovation, mais de pouvoir, d’institutions et de responsabilité.

Trois forces avancent aujourd’hui plus vite que la capacité de réponse des sociétés :

  1. des technologies qui se déploient à l’échelle mondiale en quelques mois
  2. une compétition économique et géopolitique qui privilégie la vitesse à la réflexion
  3. un fossé de responsabilité qui s’élargit à mesure que les systèmes gagnent en autonomie

Ces dynamiques forment une structure de gouvernance silencieuse — non conçue, non débattue, mais produite par l’accélération elle-même.

1) Quand la technologie dépasse les institutions

Les systèmes d’IA ne se diffusent pas comme les innovations passées. Une usine avait des limites. Un chemin de fer prenait des décennies. L’IA moderne peut être déployée mondialement du jour au lendemain.

  • une mise à jour peut s’imposer à l’échelle globale en quelques heures
  • des agents automatisés décident plus vite que la supervision humaine
  • des infrastructures critiques sont concentrées entre très peu d’acteurs

La capacité technologique croît plus rapidement que les institutions chargées de la contrôler. La gouvernance arrive souvent trop tard.

2) Le pouvoir sans visibilité

L’IA ne se contente pas de traiter des données — elle façonne des environnements :

  • ce que nous voyons à l’écran
  • les choix qui deviennent plus faciles ou plus difficiles
  • les personnes classées comme « à risque »
  • les comportements encouragés ou découragés

Ces effets sont largement invisibles, intégrés dans des modèles et des pipelines automatisés. La responsabilité ne disparaît pas : elle se fragmente.

3) Diriger sous pression

La logique dominante reste : « déployer maintenant, corriger plus tard ». C’est une éthique de la vitesse qui reproduit le schéma de Frankenstein.

4) La frontière humaine

Lorsque l’innovation touche au travail, au corps, à la mémoire et à l’autonomie, la gouvernance devient une question civilisationnelle.

5) Une autre voie : la responsabilité comme forme de pouvoir

L’alternative n’est ni la peur ni l’immobilisme. Elle réside dans le stewardship : une responsabilité active comme compétence centrale du leadership.

La machine ne deviendra pas plus humaine. C’est à nous de le devenir.

Synthèse

Cette analyse présente l’IA comme une frontière de gouvernance et de responsabilité :

  • la technologie progresse plus vite que les institutions
  • le pouvoir se concentre par l’infrastructure et les standards
  • la responsabilité se dissout sans action délibérée des dirigeants

Le défi politique fondamental n’est pas d’arrêter l’innovation, mais de rester présents auprès d’elle — afin qu’elle ne devance pas les humains qu’elle affecte.

Concepts clés

  • Fossé de gouvernance — décalage institutionnel face à la dynamique technologique
  • Fossé de responsabilité — absence de responsabilité claire lorsque les systèmes agissent
  • Stewardship — le leadership comme accompagnement éthique
  • Destruction créatrice — le progrès par remplacement disruptif
  • Risque systémique — danger issu des structures, non des outils eux-mêmes 

©Robert F. Tjón, January 2026

 Creative Commons CC BY-NC-ND 4.0 International

Lire plus sur rftjon.substack.com

https://rftjon.substack.com/

Interview avec Jánszky – Prévisions de notre avenir 👇 (Anglais)

https://rftjon.substack.com/p/janszkys-future-picture?r=35vtu2

IA et Frankenstein 👇 (Anglais)

https://rftjon.substack.com/p/ai-and-the-modern-frankenstein-and?r=35vtu2

Published by

Unknown's avatar

Robert F. Tjón

I write from lived experience toward systemic understanding. What began as cultural and philosophical reflection has expanded into interpreting the forces shaping our time—technology, power, economics, and geopolitics—without abandoning attention to ritual, memory, and human meaning. This is a space for readers who seek clarity without slogans, depth without nostalgia, and ethical seriousness without moralism. For further context or contact, visit: 🌐 rftjon.substack.com and roberttjon.wordpress.com Essays under the Creative Commons CC BY-NC-ND 4.0 International license https://creativecommons.org/licenses/by-nc-nd/4.0/

Leave a Reply