Lire un aperçu de cet essai
Chapitre 2 – La cathédrale de Turing
La « Cathédrale de Turing » est une métaphore représentant l’ère de l’intelligence artificielle comme le nouveau temple de l’esprit où le silicium remplace la pierre. Elle symbolise l’acmé de la singularité technologique et l’aboutissement du système technicien, rendant hommage à Alan Turing dont la machine universelle constitue les plans de fondation de cet édifice qui dépasse désormais l’entendement humain.
Cette « Cathédrale de Turing » n’est pas le fruit d’un plan préétabli, mais celui d’une lente accrétion, une sédimentation où chaque avancée s’appuie sur les vestiges des précédentes. Sous les verrières de l’IA générative et des réseaux de neurones, l’édifice repose sur des fondations invisibles, des strates de codes anciens et de protocoles archaïques qui soutiennent encore le poids de nos systèmes bancaires ou de nos réseaux de transport. C’est une architecture de la continuité : on n’y détruit rien, on superpose, on colmate, on ajoute des arcs-boutants numériques à une structure dont la complexité finit par échapper à ses propres bâtisseurs. Nul ne possède plus le plan complet de cette nef immense ; on ne fait qu’en habiter les replis.
Dans cet espace, la technique dépasse sa fonction d’outil pour devenir l’ordonnatrice de notre réalité. On y retrouve l’aboutissement du système technicien cher à Ellul : l’IA s’y impose comme la « méthode absolument efficace en toutes choses », une force d’organisation qui ne tolère plus de marge d’erreur ou d’alternative. Ce n’est plus nous qui ajustons l’outil à nos besoins, c’est l’infrastructure qui définit les conditions de notre efficacité. La logistique, l’énergie, les flux de données ne sont plus gérés selon une temporalité humaine, mais selon une cadence algorithmique devenue le dogme de cette cathédrale. Tout ce qui fait notre singularité — l’improvisation, la lenteur, l’hésitation — tend à être lissé pour s’insérer dans la perfection du calcul.
Pourtant, cette majesté apparente dissimule une vulnérabilité systémique. La Cathédrale de Turing est un édifice de verre, sensible au moindre déséquilibre. Parce que tout y est interconnecté, la défaillance d’un seul obscur composant peut se propager en une onde de choc imprévisible, paralysant des pans entiers de notre civilisation. Ces pannes massives que nous traversons parfois sont les rappels brutaux de la « trahison de l’outil » : plus le système est parfait dans son exécution, plus son instabilité est profonde en cas d’anomalie. Nous avons érigé une voûte splendide, mais son équilibre repose sur une interdépendance si serrée qu’elle en devient précaire.
Le triomphe de cette infrastructure réside finalement dans sa capacité à se faire oublier. Elle ne s’impose pas par la contrainte, mais par une présence devenue atmosphérique, aussi naturelle que l’air ou la lumière. La Cathédrale de Turing a fini par se confondre avec notre environnement, quadrillant nos choix, nos échanges et nos désirs avec une discrétion absolue. C’est là que se situe son acmé : ce moment où la technique n’est plus un objet que l’on regarde, mais le milieu même dans lequel nous évoluons. Nous n’habitons plus seulement le monde, nous habitons cette structure invisible qui, tout en nous portant, redéfinit silencieusement les frontières de notre liberté.
L’intelligence artificielle est une
réalité en soi qui se suffit à elle-même
Le sociologue français Jacques Ellul soulignait qu’» aussi longtemps que l’on n’aura pas étudié le phénomène technique en dehors de ses implications économiques et des problèmes de système économique ou de lutte de classe, on se condamne à ne rien comprendre de la société contemporaine[1]. » Cette injonction, qui est faite au sociologue, oblige ce dernier à une recherche de la compréhension des phénomènes dans leur singularité[2] et particulièrement lorsqu’il s’agit de technologies numériques et d’intelligence artificielle. Et c’est bien ce que nous avons l’intention de proposer au lecteur comme analyse en décortiquant cette technologie tout à fait inédite qu’est l’intelligence artificielle, c’est-à-dire la comprendre dans sa propre singularité, la comprendre pour ce qu’elle est intrinsèquement.
Afin de parvenir à cette compréhension, il faut tout d’abord revenir notre hypothèse de départ ancrée dans la pensée de Jacques Ellul pour en extensionner la portée[3] : L’intelligence artificielle est une réalité en soi qui se suffit à elle-même, autonome à l’égard de l’homme qu’elle oblige à s’aligner sur elle, modifie radicalement les objets auxquels elle s’applique sans être pour sa part modifiée par eux, parce qu’elle est la technologie obligatoirement efficace en toutes choses qui absorbe tout, même le social.
Pour Ellul, le système technicien n’est pas un simple inventaire de machines, mais une architecture globale — aérienne, bancaire, informatique, énergétique, politique, etc. — dont l’unique boussole est la recherche de la méthode absolument la plus efficace. Or, il faut se rendre à l’évidence : l’IA n’est pas un rouage de plus dans cette mécanique, elle en est l’aboutissement logique. En apprenant de façon autonome par le biais de ses réseaux de neurones artificiels, elle ne se contente plus d’exécuter des ordres ; elle s’approprie la logique du système pour s’y substituer. Elle est, par nature, la méthode absolue.
Ce basculement auquel nous assistons est total. Dès lors que l’intelligence artificielle colonise chaque sous-système et les verrouille entre eux, elle ne se contente pas d’optimiser la technique : elle devient le système lui-même. En 1988, Jacques Ellul s’interrogeait déjà sur l’instant où cette structure aveugle se doterait enfin d’un mécanisme de feed-back capable d’en piloter l’orientation et la vitesse. Trente-cinq ans plus tard, l’intelligence artificielle apporte une réponse implacable à cette interrogation. Ce n’est pas une simple évolution qui se dessine devant nos yeux, mais un renversement de l’ordre établi, car un système capable de s’autoconfigurer et d’apprendre de ses propres déploiements finit inévitablement par absorber tout ce qui lui est extérieur, jusqu’à digérer la vie sociale dans ses recoins les plus intimes.
Par exemple, l’application de cette hypothèse à l’urbanisme révèle sans doute l’aspect le plus tangible de la prédation du système technicien. Dans la ville traditionnelle, l’espace était le fruit d’une sédimentation historique, de conflits d’usage et d’une certaine part d’imprévisibilité humaine. Aujourd’hui, sous la poussée de l’IA, l’urbanisme bascule dans l’ère de la « ville intelligente » ou Smart City, où le territoire n’est plus un lieu de vie, mais un gisement de données à optimiser. Ici, l’IA ne se contente plus de gérer le trafic ou l’éclairage ; elle devient la matrice même de la cité. En connectant le sous-système des transports à celui de l’énergie, de la surveillance policière ou de la gestion des déchets, elle crée une infrastructure autorégulée qui ne tolère plus l’inefficacité. C’est ici que la thèse d’Ellul se matérialise : la ville devient un mécanisme de feed-back géant. Si un flux de population ralentit ou si une consommation d’énergie fluctue, l’IA reconfigure l’espace en temps réel, souvent au détriment de la spontanéité sociale.
L’exemple de la Ville de Québec[4], s’alliant au géant Google pour synchroniser ses feux de circulation via le projet Green Light[5], offre une illustration saisissante de cette mutation du système technicien. Ce n’est plus une simple question d’ingénierie routière, mais bien l’instauration d’une gouvernance algorithmique du territoire. Ici, l’IA ne se contente pas d’assister l’humain ; elle traite des masses de données issues de nos propres déplacements captées par nos téléphones et intégrées à Google Maps pour dicter le rythme de la cité.
Le fait que l’IA puisse ainsi proposer des ajustements de quelques secondes à peine démontre la précision chirurgicale de cette « méthode absolument efficace ». Ce qui était autrefois le domaine de l’observation empirique et de la planification rigide devient une rétroaction fluide et quasi instantanée, c’est-à-dire que le système s’autoconfigure : il détecte les goulots d’étranglement et recalibre ses propres paramètres pour assurer une fluidité sans faille. Pour justifier la mise en place d’un tel processus, on a vanté au citoyen la réduction des gaz à effet de serre et le confort de l’automobiliste. Mais derrière ce vernis de bienveillance écologique se cache l’absorption définitive de l’espace public par la logique technicienne où le citoyen, dans ce théâtre urbain, est réduit à un capteur mobile, une unité de données dont le comportement alimente la machine qui, en retour, conditionne sa trajectoire. La faisabilité technique de ce projet pilote n’est plus à prouver, elle est déjà opérationnelle, et elle confirme que l’IA est en passe de devenir le tissu conjonctif de tous les sous-systèmes urbains. Lorsque la gestion des feux, de l’énergie et de la sécurité sera totalement intégrée dans une interface unique, la ville ne sera plus qu’un vaste automate où la vie sociale, prévisible et optimisée, n’aura plus d’autre choix que de suivre le signal vert imposé par le système.
Il y a aussi, dans cette gestion par l’algorithme, l’évacuation de la dimension politique de l’urbanisme. Ici, le choix de l’aménagement n’appartient plus au citoyen ni même à l’élu, mais à la « méthode la plus efficace en toutes choses » dictée par le calcul. On assiste alors à une sorte de pétrification de la vie sociale : le système technicien, par l’entremise de l’IA, absorbe les comportements humains pour les transformer en flux prévisibles et gérables. La ville ne nous abrite plus, elle nous traite comme des variables de son propre fonctionnement.
Ces affirmations peuvent paraître excessives, et le lecteur est fondé à y voir une provocation. Pourtant, si nous nous permettons une telle dureté de ton, c’est que notre hypothèse l’exige pour être éprouvée. En ce sens, la démarche qui anime cet ouvrage ne sera donc pas une observation passive, mais une dissection méthodique. Il s’agira de démonter, pièce par pièce, les rouages de cette hypothèse afin de révéler les mécanismes profonds qui structurent le système technicien d’aujourd’hui, au moment précis où il s’apprête à refermer son emprise sur la totalité du réel.
L’autonomie technologique
L’idée de singularité technologique, telle que martelée par Ray Kurzweil, n’est pas une simple prédiction de salon, mais plutôt une prophétie qui postule une rupture radicale dans la trame de l’histoire humaine. Ce point de bascule, où l’intelligence artificielle dépasse l’entendement biologique, annonce une explosion de progrès dont les ondes de choc sociales échappent totalement à nos modèles de prévision actuels. Pour Kurzweil, ce n’est pas une intuition vaporeuse, mais le résultat mécanique de ce qu’il nomme la « Loi du retour accéléré ». Pour la formuler, il a convoqué la célèbre « Loi de Moore » afin de la tordre subtilement et l’étendre à l’ensemble de l’évolution technologique, transformant une banale observation industrielle en un dogme de l’accélération universelle. Une erreur épistémologique flagrante.
Il faut revenir à la source : en 1965, Gordon Moore, l’un des piliers d’Intel, a gravé dans le marbre que le nombre de transistors sur une puce doublerait environ tous les 18 à 24 mois. Ce n’est pas qu’une affaire de silicium, c’est une chute vertigineuse des coûts couplée à une montée en puissance exponentielle et on ne parle pas ici d’une progression linéaire, mais bien d’une courbe qui s’emballe. Cette puissance de calcul brute agit en quelque sorte comme un acide qui dissout les limites des autres disciplines. Prenez l’aviation : si on parvient aujourd’hui à concevoir des réacteurs d’une redoutable efficacité en matière de consommation de carburant, c’est parce que les calculateurs permettent de simuler des écoulements de fluides et des résistances de matériaux impossibles à modéliser autrefois. Enfin, l’argument de la Loi de Moore lui-même s’essouffle, puisqu’on arrive aux limites atomiques de la gravure sur silicium. Croire en une croissance infinie de la puissance de calcul dans un monde aux ressources finies relève plus de la foi religieuse que de la rigueur scientifique, mais on verra plus loin dans cet ouvrage qu’Elon Musk a trouvé la parade à ce problème. La singularité pourrait bien n’être que le chant du cygne d’une civilisation qui a confondu la vitesse de ses processeurs avec la direction de son destin, mais rien n’est moins certain.
L’innovation ne se contente donc plus de progresser, elle s’auto-alimente. Les microprocesseurs, toujours plus denses, permettent de concevoir des alliages composites et des structures d’une légèreté insolente, où chaque boulon et chaque revêtement est optimisé par une puissance de calcul qui n’existait pas deux ans auparavant. L’aviation, ici, n’incarne qu’un symptôme parmi d’autres de cette réaction en chaîne. En réalité, chaque saut de performance du microprocesseur injecte une dose d’adrénaline dans le moteur de l’innovation globale, créant un cycle où la machine aide à construire la machine qui la remplacera, nous rapprochant chaque jour un peu plus de cet horizon de la singularité où le contrôle humain risque de devenir un concept obsolète.
De l’autre côté, la critique de cette notion de « singularité technologique » ne se contente pas uniquement de douter de la technique : elle s’attaque directement à l’arrogance de ce déterminisme mathématique. Si Kurzweil voit une ligne droite vers l’apothéose technologique, ce moment d’acmé que connaîtra l’humanité, ses détracteurs y voient de préférence un mirage qui ignore les frottements du réel. Tout d’abord, le premier obstacle est irrévocablement d’ordre physique et biologique. La pensée n’est pas qu’un pur calcul, une suite de zéros et de uns que l’on pourrait doper à l’infini. En réduisant l’esprit humain à un traitement d’information, Kurzweil évacue par le fait même la conscience, l’émotion et l’incarnation biologique. C’est le « problème difficile » de la conscience théorisé par David Chalmers[6] : on peut simuler les connexions d’un cerveau, mais cela ne garantit en rien l’émergence d’un sujet. On risque donc de se retrouver avec des machines extrêmement performantes, mais fondamentalement « creuses », des automates sans âme qui exécutent des directives sans en saisir le sens, et pourtant, dans un chapitre subséquent, il sera démontré comment Dario Amodei, PDG de la firme Anthropic, pense la chose tout autrement.
Ensuite, il y a le mur de la complexité sociale et éthique. L’idée que le progrès technologique mène nécessairement à un mieux-être est une fable ; l’histoire avec un grand H nous en est témoins avec les grandes boucheries liées aux deux Grandes guerres mondiales du XXe siècle. L’accélération brute, sans gouvernance aucune, pourrait tout aussi bien mener à une fragmentation sociale irrémédiable. Si une élite peut s’augmenter biologiquement ou accéder à une IA omnisciente, tandis que le reste de l’humanité stagne, la singularité n’est plus, dès ce moment, une promesse de dépassement, mais un outil de ségrégation sociale radicale ; on sort de l’évolution pour entrer dans une ingénierie de caste.
En direction vers la singularité technologique
Cette bifurcation sociale ne surgit pas du néant ; elle est le point de rupture d’une trajectoire amorcée par la densification de nos outils. De notre point de vue de sociologue, la singularité technologique, qui devrait un jour survenir, est non seulement le fait de l’intelligence artificielle, mais elle est initialement le fait de la complexité technologique. L’IA n’agit ici que comme un catalyseur surpuissant : elle ne crée pas la rupture, elle l’accélère. À l’image des microprocesseurs dont la puissance démultipliée a ouvert les vannes d’innovations sectorielles, l’IA propulse la complexité vers un seuil où l’accès à la technologie ne définit plus seulement le confort, mais la nature même de l’individu et son rang dans une nouvelle hiérarchie biologique. De là, l’intelligence artificielle ne vient qu’accélérer le processus menant à la singularité technologique, tout comme des microprocesseurs de plus en plus puissants rendent possibles des innovations dans plusieurs domaines. Ce que nous voulons ici signifier, c’est que l’intelligence artificielle n’est que l’une des multiples possibilités technologiques qui auraient pu conduire ou conduira à cette singularité. En fait, si l’intelligence artificielle n’avait pas été au rendez-vous à ce moment-ci de la progression technologique, une autre technologie aurait éventuellement servi de support à cette croissance. Autrement dit, ce n’est qu’un concours de circonstances si l’intelligence artificielle se retrouve dans la position dominante actuelle. D’ailleurs, il faut bien observer comment celle-ci a évolué pour comprendre que tout n’est ici question que de contingence, c’est-à-dire qu’il était possible que l’intelligence artificielle sorte de son long hiver, mais qu’il n’était en rien nécessaire qu’elle prenne les devants de la scène technologique et corporative.
D’une part, si l’intelligence artificielle est cet accélérateur de la singularité technologique, il faut voir comment elle agit sur la complexité technologique. Ajoute-t-elle à celle-ci ? La sert-elle ? La contraint-elle ? La masque-t-elle ? D’autre part, si l’intelligence artificielle se substitue au système technicien tel que nous le connaissons aujourd’hui, c’est qu’elle aura fait en sorte de fédérer tous les composants du système technicien sous sa gouverne, parce qu’elle est définitivement la technologie absolument efficace en toutes choses.
Dans les faits, tout ce qui n’est actuellement pas technologique doit le devenir, et tout appareil, logiciel, appareil ou objet quelconque qui n’a pas encore été touché par la grâce de l’intelligence artificielle doit l’être pour le rationaliser et le transformer en un moyen absolument efficace. Tout ce qui n’est pas encore technologie doit le devenir, parce que le rôle fondamental de toute technologie est de dépouiller, de mettre au clair et de rationaliser ce qui existe déjà. Et au moment où ces lignes sont écrites, la seule technologie qui détient incontestablement cette capacité à tout transformer, c’est bien celle de l’intelligence artificielle. Et comme cette dernière s’appuie sur les techniques et méthodes du deep learning, ce n’est qu’une question de temps avant qu’elle ne s’appuie sur celles-ci pour poursuivre son inexorable développement et pousser encore plus loin, au-delà même de ce qui est aujourd’hui envisageable, des systèmes intelligents qui seront à la fois d’une absolue efficacité en tout et d’une incommensurable complexité que nul ne saurait même saisir.
Comme le soulignait Jacques Ellul, « la technique assume aujourd’hui la totalité des activités de l’homme, et pas seulement son activité productrice », parce qu’il y a l’idée que la technique libère et qu’elle « est productrice de liberté[7] ». Elle libère non seulement de certaines tâches fastidieuses, mais elle offre aussi une plus grande liberté d’action. Par exemple, se déplacer en avion sur de grandes distances, transplanter des organes pour prolonger la vie, offrir un confort tel, que vivre dans un pays nordique ne représente plus du tout un défi au quotidien, etc. Pour autant, sommes-nous aussi libres qu’on le pensait grâce à la technique ? Autre exemple : lorsque plus d’un milliard de personnes utilisent librement et sans contrainte aucune les réseaux sociaux pour créer du lien social et obtenir de la reconnaissance sociale, personne ne se rend compte qu’on est en définitive rigoureusement conditionné par cette technique incarnée dans une technologie numérique, accessible aussi bien à partir d’un ordinateur, que d’une tablette, que d’un téléphone portable et d’objets connectés. Conséquemment, ce milliard de personnes constitue en définitive une masse totalement cohérente qui agit dans un seul et même sens. Et il ne s’agit là que d’un exemple parmi bien d’autres où la technique assume l’une des activités de l’homme qui n’a, au demeurant, rien à voir avec son activité productrice et commerciale, mais tout à voir avec sa vie sociale. D’ailleurs, dès 1958, Ellul en soulignait déjà le caractère : « il faut principalement souligner le fait que la technique s’applique maintenant à des domaines qui n’ont pas grand-chose à faire avec la vie industrielle[8]. »
Cependant, il n’en reste pas moins que la machine, et à plus forte raison l’ordinateur, représente l’archétype idéal de l’application technique. En fait, utiliser un traitement de texte ou un tableur, même si la chose semble aujourd’hui banale, est une application d’une extrême efficacité technique. Autrement, quand on observe ce qui émerge — voiture autonome, algorithmes financiers intelligents, imagerie médicale intelligente, reconnaissance faciale à grande échelle en temps réel —, il faut se rendre à une autre évidence : c’est de la technique à l’état pur, c’est-à-dire la recherche de l’efficacité absolue en toutes choses. Il s’agit donc bien de puissance technique, d’un rapport à la technique telle que celle-ci cherche à tout assimiler et à fédérer sous sa tutelle.
Et les répercussions de l’intelligence artificielle vont au-delà de la simple technologie. Comme le remarquait Ellul, « dans toutes les situations où se rencontre une puissance technique, celle-ci cherche, de façon inconsciente, à éliminer tout ce qu’elle ne peut assimiler. Autrement dit, partout où nous rencontrons ce facteur, il joue nécessairement, comme son origine le prédestine, semble-t-il, à le faire, dans le sens d’une mécanisation. Il s’agit de transformer en machine tout ce qui ne l’est pas encore. On peut donc dire que la machine constitue bien un facteur décisif[9]. » En ce sens, et le meilleur exemple qui puisse être donné de cette prise de position de la part de Jacques Ellul, est bien celui de la dématérialisation, de la délocalisation et de la détemporalisation qu’imposent les technologies numériques, car elles éliminent systématiquement tout ce qui ne peut être assimilé sous leur férule. Rien ne leur échappe.
On peut alors observer le phénomène sous un angle moins frontal, mais tout aussi lucide : nous assistons à une reconfiguration brutale, presque tectonique, de nos échanges. Ce que les plateformes comme Uber ou Airbnb ont instauré, ce n’est pas seulement une nouvelle manière de se déplacer ou de se loger, c’est un basculement de paradigme qui contourne les cadres protecteurs que nous avions mis des décennies à bâtir. La transformation des services bancaires par la Blockchain[10]–[11] suit cette même logique de désintermédiation, promettant une autonomie technique qui, en réalité, fragilise les leviers de régulation traditionnels des banques centrales. En fait, le cœur du problème réside dans cet extractivisme feutré pratiqué par la Silicon Valley. En s’appropriant les interactions de milliards d’utilisateurs sans contrepartie financière, ces entreprises ont érigé un modèle de profit qui repose sur une main-d’œuvre invisible et involontaire. Les technologies numériques agissent ici comme un solvant qui dissout les frontières fiscales et sociales ; elles ne se contentent pas de déplacer la valeur, elles la rendent évanescente pour l’administration publique. En délocalisant et en dématérialisant l’impôt, ces géants du web ont placé les États devant un fait accompli, les forçant à une remise en question profonde de leurs outils de souveraineté. Ce n’est plus une simple crise de croissance, c’est l’exigence d’un nouveau contrat social face à une économie qui cherche à s’affranchir de toute attache géographique et citoyenne.
Cette offensive n’a rien d’une coïncidence ou d’un simple progrès technique linéaire ; elle est le signe d’une emprise totale. Les technologies numériques, désormais dopées par une intelligence artificielle qui s’insinue dans chaque recoin de l’activité humaine, opèrent avant tout un « immense inventaire de tout ce qui est encore utilisable, de ce qui peut être accordé avec la machine[12]. » Ce n’est plus l’outil qui s’adapte à l’homme, mais l’existence entière qui est passée au crible pour vérifier sa compatibilité avec le processeur. On nous vend de la fluidité, mais c’est un quadrillage. Si l’on accepte l’idée que « la technique intègre la machine à la société, [elle] la rend sociale et sociable[13] », il faut comprendre que cette sociabilité est celle d’un rouage. Le numérique ne crée pas de lien, il met de l’ordre, un ordre froid et implacable là où régnait autrefois le désordre fertile de l’imprévisibilité humaine. On le constate, l’optimisation du travail par des algorithmes sophistiqués n’est que la partie émergée de cette mise en fiches du monde. Ici, l’ordinateur et ses logiciels ne se contentent pas d’aider ; ils clarifient, rangent et rationalisent avec une silencieuse persévérance. Ils accomplissent « dans les domaines abstraits ce que la machine a fait dans le domaine du travail[14] », c’est-à-dire qu’ils transforment la pensée, l’administration et le droit en une chaîne de montage immatérielle. L’ordinateur est devenu le grand inquisiteur de la performance, portant partout la loi de l’efficacité comme une vérité absolue devant laquelle tout doit plier. En sanctionnant impitoyablement l’inefficacité sociale, il a rendu obsolète tout ce qui n’est pas mesurable ou immédiatement productif. Cette bascule est irréversible car « en cela, la situation de la technique est radicalement différente de celle de la machine[15]. »
[1] Ellul, J. ([1977] 2004). Le système technicien, Paris : Calmann-Lévy, réédition Le Cherche midi, p. 40.
[2] La « recherche » ici considérée comme une herméneutique sociologique.
[3] Ellul, J. ([1954] 2008). La Technique ou l’Enjeu du siècle, 3e éd. Paris : Armand Colin, p. 2.
[4] Blais, S. (2025). L’IA pour synchroniser des feux de circulation. La Presse. URL : https://www.lapresse.ca/actualites/circulation/2025-08-18/ville-de-quebec/l-ia-pour-synchroniser-des-feux-de-circulation.php.
[5] Le projet Green Light de Google est une initiative utilisant l’intelligence artificielle pour optimiser la synchronisation des feux de circulation. En analysant les données de navigation de Google Maps, le système suggère des ajustements aux ingénieurs municipaux afin de réduire les arrêts fréquents des véhicules, fluidifier le trafic et ainsi diminuer les émissions de gaz à effet de serre.
[6] Chalmers distingue les « problèmes faciles » (mécanique du traitement de l’information) de l’expérience subjective (qualia). Selon Chalmers, augmenter la puissance de calcul ne garantit en rien l’émergence d’une conscience ; la machine pourrait rester un « zombie philosophique », simulant la pensée sans jamais la ressentir, invalidant ainsi l’idée d’une fusion spirituelle entre l’homme et l’IA.
[7] Ellul, J. (1988), op. cit., Paris : Hachette, p. 9.
[8] Ellul, J. ([1954] 2008). Op. cit., p. 2.
[9] Ellul, J. ([1958] 1990). Op. cit., p. 2.
[10] Technologie transparente et sécurisée de stockage et de transmission d’informations fonctionnant sans organe central de contrôle.
[11] Robson, D. (2016 [September]). « Rethinking Global Finance ». Wired UK, p. 56-57.
[12] Ellul, J. ([1958] 1990), op. cit., p. 3.
[13] Idem.
[14] Idem.
[15] Idem., p. 4.
Sommes-nous les bâtisseurs ou les otages de notre propre progrès ?
Nous vivons une époque paradoxale. D’un côté, l’intelligence artificielle pulvérise nos limites biologiques et promet de résoudre les plus grands défis de l’humanité. De l’autre, elle installe une atrophie cognitive silencieuse et un contrôle social sans précédent.
Dans cet essai lucide et provocateur, le sociologue et linguiste Pierre Fraser analyse la trajectoire de l’IA non pas comme un simple outil, mais comme un fétiche moderne qui redéfinit notre rapport au savoir, à la justice et à la vérité. En s’appuyant sur une matrice analytique où la sagesse côtoie la folie, il nous interroge : que reste-t-il de l’humain quand l’algorithme prétend absorber la nuance et la morale?
Un ouvrage essentiel pour comprendre pourquoi l’IA est à la fois notre remède miracle et notre poison lent, et pour reprendre pied dans un monde où l’opacité technologique est devenue la norme.
ISBN : 978-2923690254 | 267 pages
Télécharger ce numéro
Téléchargement disponible jusqu’au 1er september 2026


