technologie

programme de recherche      corps      technologie      discours

programme de recherche      corps      technologie      discours


action

enchevêtrer


[+]
L’enchevêtrement technologique correspond au fait qu’un système fondé sur des technologies croît en complexité par accrétion, enchevêtrement, progression géométrique et effet d’entraînement.


action

complexifier


[+]
La complexité technologique, ou complexité massive, se dit de tout système composé de systèmes hautement complexes en interaction, interconnectés et interopérables desquels émergent des propriétés inédites.


action

unifier


[+]
L’unicité technologique renvoie au fait que si les technologies existent et que si elles sont efficaces, elles doivent impérativement être utilisées dans un sens ou dans l’autre, toutes technologies confondues.

 


action

autonomiser


[+]
L’autonomie technologique renvoie à cette idée que la technologie est indépendante à l’égard de l’économie, de la politique et de la morale. Elle est une réalité en soi qui se suffit à elle-même, autonome à l’égard de l’homme qu’elle oblige à s’aligner sur elle, modifie radicalement les objets auxquels elle s’applique sans être pour sa part modifiée par eux.


hypothèse

facteur de risques


[+]
L’infrastructure technologique est à ce point complexe et inextricable, qu’il devient impossible de dissocier et de démêler les éléments qui la composent au risque de faire s’effondrer le système sur lui-même.

autonomie

L’autonomie technologique renvoie à cette idée que la technologie est indépendante à l’égard de l’économie, de la politique et de la morale. Elle est une réalité en soi qui se suffit à elle-même, autonome à l’égard de l’homme qu’elle oblige à s’aligner sur elle, modifie radicalement les objets auxquels elle s’applique sans être pour sa part modifiée par eux.

Pour Jacques Ellul, le premier caractère du système technicien est l’autonomie, dans le sens où la technique ne dépend que d’elle-même, elle trace son propre chemin, elle est un facteur premier. Conséquemment, c’est l’homme qui doit s’adapter à la technique et non l’inverse : « la technique a permis à l’homme de maîtriser la nature, pour devenir elle-même une seconde nature dont l’homme subit désormais les assauts et à laquelle il doit s’adapter1. » Et si la technique est autonome, c’est aussi dire qu’elle est une action, non une réaction : c’est le milieu sur lequel elle agit qui réagit à elle, qui s’adapte ; c’est la condition de son développement.

Autrement dit,  le milieu où pénètre une technologie devient tout entier et, souvent, d’un seul coup, un milieu technologique2. En fait, du moment où une innovation technologique pénètre le domaine médical (biotechnologies, nanotechnologies, intelligence artificielle, etc.), et qu’elle démontre son efficacité, le domaine d’application où elle se retrouve devient d’un seul coup technologique. Par exemple, avec l’arrivée de l’intelligence artificielle, qui pénétrera plusieurs secteurs de l’activité médicale, tous ces secteurs deviendront, d’un seul coup, des milieux artificiellement intelligents. Concrètement, la société, dans son ensemble, en est à un stade d’élimination de tout ce qui n’est pas technologique, et le monde médical ne peut y échapper. Et c’est pourquoi Ellul disait qu’« il n’y a pas de puissance équivalente au monde » et que « rien ne peut entrer en concurrence avec le moyen technique2. » La question qui se pose dès lors est la suivante : est-il possible d’échapper à la technique ? Ellul répond comme suit à cette question :

« Le choix est fait a priori. L’homme ni le groupe ne peuvent décider de suivre telle voie plutôt que la voie technique : il est en effet placé devant ce dilemme très simple : ou bien il décide de sauvegarder sa liberté de choix, il décide d’user du moyen traditionnel ou personnel, moral ou empirique, et il entre alors en concurrence avec une puissance contre laquelle il n’a pas de défense efficace : ses moyens ne sont pas efficaces, ils seront étouffés ou éliminées, et lui-même sera vaincu — ou bien, il décide d’accepter la nécessité technique ; alors il vaincra, mais il sera soumis de façon irrémédiable à l’esclavage technique3 . »

En somme, la voie technologique est incontournable. Toute institution ou individu qui cherche ou tente de se soustraire à la technologie se marginalise par défaut. En tant que société, il a été décidé d’accepter la nécessité technologique. La question n’est même plus de savoir s’il est ou non possible de ne pas se soumettre à la nécessité technologique, mais bien de savoir comment la nécessité technologique agit pour comprendre ce qui attend la société. Par exemple, tout système d’intelligence artificielle qui sera non seulement en mesure d’effectuer plus efficacement l’analyse d’un problème donné, mais surtout d’en porter la précision à un degré jusqu’ici inégalé, comme identifier une forme rare de cancer et d’y parvenir en moins de deux minutes, tombera automatiquement dans cette catégorie de la technologie absolument la plus efficace en toutes choses. Pourquoi ? Parce qu’elle est, plus « satisfaisante, et qu’au point de vue pratique elle se révèle efficiente, [même] plus efficiente que tous les autres moyens employés jusqu’ici ou mis en concurrence au même moment4 », et que la direction technologique se fera d’elle-même. Autrement dit, l’orientation et les choix technologiques s’effectuent d’eux-mêmes, donc :

« Que l’on ne dise pas que l’homme est l’agent du progrès technique et qu’il choisit encore entre les techniques possibles. En réalité, non : il est un appareil enregistreur des effets, des résultats obtenus par diverses techniques […] ; il décide seulement pour ce qui donne le maximum d’efficience. Ce n’est plus un choix, n’importe quelle machine peut effectuer la même opération. Et si l’homme a encore l’air de faire un choix en abandonnant telle méthode pourtant excellente à un point de vue, c’est uniquement parce qu’il approfondit l’analyse des résultats et qu’il constate que sur d’autres points cette méthode est moins efficiente5. »

C’est en ce sens que l’homme n’est pas l’agent du progrès technologique et qu’il ne choisit pas entre les technologies possibles ; il est déterminé par l’efficacité de telle ou telle technologie. Le milieu médical ne peut échapper à cet impératif technologique et toutes les interventions futures à venir sur le corps lui seront soumis.


Références
1 Ellul, J. ([1958] 1990), La Technique ou l’Enjeu du siècle, 3e éd., Paris : Armand Colin, p. 78.
2 Idem.
3 Idem.
4 Idem., p. 74.
5 Idem., p. 75.

[▲]

unicité

L’unicité technologique renvoie au fait que si les technologies existent et que si elles sont efficaces, elles doivent impérativement être utilisées dans un sens ou dans l’autre, toutes technologies confondues.

Le progrès scientifique et technologique, depuis les débuts de la Révolution industrielle, a connu une courbe qui n’a cessé de croître jusqu’à aujourd’hui. Depuis l’arrivée des technologies numériques, c’est-à-dire depuis que nous disposons collectivement de microprocesseurs qui permettent de computer et de traiter de plus en plus de grandes masses d’informations, le progrès scientifique et technologique a connu une croissance incrémentale, c’est-à-dire que la toute dernière innovation apporte sans cesse une valeur ajoutée significative à la précédente, une amélioration porteuse en quelque sorte, qui multiplie d’autant les possibilités de la prochaine innovation. Ces innovations surviennent généralement sur plusieurs fronts, ceux-ci propulsés par des intérêts tout aussi différenciés, qu’ils soient commerciaux, économiques, financiers, politiques, militaires, pharmaceutiques, médicaux, scientifiques. C’est le prix à payer pour que nous puissions vivre plus longtemps, dans de meilleures conditions de vie, et surtout en meilleure santé, tant sur le plan physique qu’intellectuel.

Nous disposons aujourd’hui d’une kyrielle de technologies qui permettent d’augmenter les capacités du corps, voire même de s’y substituer. Par exemple, un individu ayant une mauvaise vue peut se rendre chez l’opticien, passer un examen qui évaluera sa condition visuelle, et se faire prescrire une paire de lunettes. Il s’agit là du b.a.-ba de la correction et de l’augmentation visuelle, une technologie en place depuis le milieu du XIXe siècle qui a largement fait ses preuves. Autrement, notre patient pourrait choisir des lentilles de contact, plus pratiques et plus discrètes que les lunettes, qui ne modifient pas l’apparence de son visage. Les lentilles de contact représentent le second stade technologique de la correction et de l’augmentation visuelle. Initialement inventées en 1887 par l’ophtalmologiste allemand Adolph Eugene Fick (1852-1937), fabriquées à partir de verre soufflé, ces lentilles de contact, grandes, lourdes et inconfortables, couvraient la presque totalité de la surface de l’œil. Dans les années 1930 et 1940, les opticiens ajouteront une bande de plastique rigide autour de la partie centrale en verre afin de les rendre plus confortables. Dans les années 1950, ce sera le passage de la lentille de contact en verre à celle de la lentille de contact en plastique. Ce n’est qu’en 1961 qu’un chimiste tchèque, Otto Wichterle (1913-1998), mettra au point le premier hydrogel permettant de fabriquer des lentilles de contact à la fois souples et confortables, mais ce n’est qu’à partir de 1971 qu’elles seront commercialisées à grande échelle et qu’elles ne cesseront de connaître des progrès technologiques incrémentaux. Ainsi, sommes-nous passés de la lentille souple à utilisation prolongée, à la lentille souple et jetable, à la lentille souple bifocale à utilisation quotidienne, à la lentille teintée modifiant la couleur des yeux, à la lentille comportant une protection contre les rayons ultraviolets.

L’autre grande innovation en matière de correction visuelle, et qui ne nécessite le port d’aucune prothèse (lunettes, lentilles de contact), c’est la chirurgie au laser qui corrige de façon quasi définitive les problèmes liés à la vision. Un cran plus haut, aujourd’hui, certaines rétines artificielles permettent de restaurer en partie la vision chez des personnes affligées de problèmes spécifiques de cécité où de minuscules télescopes sont implantés dans l’œil chez des personnes souffrant de dégénérescence maculaire. Toutes ces technologies, qu’il s’agisse de lunettes ou de lentilles de contact, de la rétine artificielle ou du télescope maculaire, sont inscrits dans un processus de développement continu et incrémental pour le grand bénéfice des gens qui ont des problèmes de vision.

L’exemple de la correction et de l’augmentation visuelle est intéressant à plus d’un égard, car il montre à quel point l’accélération technologique est incrémentale. En fait, qui pourrait bien être contre ce type d’innovation technologique ? Impossible, même sur le plan éthique, de s’opposer à de telles améliorations et innovations, pour la simple raison que si ces technologies existent et qu’elles sont efficaces, elles doivent impérativement être utilisées dans un sens ou dans l’autre. Étant donné que l’innovation en matière d’augmentation visuelle est peu susceptible de soulever la controverse, il est même encouragé de poursuivre les recherches dans des domaines aussi diversifiés que celui de microprocesseurs spécialisés dans le traitement de l’image, des sciences des matériaux, des biotechnologies et même des nanotechnologies. Autrement dit, à l’aune d’une convergence technologique, produire un œil artificiel, biologique ou non, élaboré à partir de matériaux biologiques ou non, ou fusionnant matériaux biologiques et électroniques, devient un impératif afin que des gens ayant perdu l’usage de la vue puisse la retrouver ; l’impératif d’utilisation.

Vu sous un autre angle, qu’est-ce qui empêcherait qui que ce soit de concevoir et développer un œil qui ferait encore mieux que l’œil issu du long processus évolutif ? Pourquoi ne pas concevoir un œil en mesure de bien voir dans des conditions de faible luminosité, de voir dans le spectre infrarouge ou ultraviolet, qui serait capable d’effectuer des zooms comme le font les caméras, qui seraient en mesure de se connecter à un réseau de communication pour stocker les données, etc. ? On comprendra que de telles améliorations pourraient conférer un avantage particulièrement compétitif à ceux qui seraient porteurs d’un tel œil. Il n’y a qu’à penser aux soldats, aux policiers, aux pilotes d’avion, aux médecins, etc. Il faut également supposer que ceux qui travaillent dans le même domaine que ceux qui ont profité d’un tout nouveau type d’œil, voudront, eux aussi, par simple pression sociale, s’en procurer un, de crainte d’être socialement déclassés. Sans vraiment spéculer, il faut également s’attendre à ce que les coûts de production d’un œil artificiel chutent de façon telle, que l’œil artificiel spécialisé dans tel ou tel domaine devienne accessible à une large part de la clientèle ciblée, tout comme il faut s’attendre qu’il y aura toujours l’œil artificiel à la fine pointe de la technologie que seuls certains nantis pourront se procurer. Même si la production de masse démocratise l’accès à certains produits, il y aura toujours un marché destiné à des gens plus fortunés qui procure une marge bénéficiaire beaucoup plus élevé que le produit de base pour les commerçants. En ce sens, la stratification sociale est inhérente au développement technologique.

Et c’est là où joue l’unicité technologique. Chaque innovation dans un domaine donné ne trace pas la carte totale du territoire des projets technologiques, car chaque innovation, incrémentale par définition, et se limitant à un domaine donné, ne transforme pas l’ensemble de toutes les technologies, mais améliore éventuellement par ricochet chacune des technologies de différents domaines. Par exemple, l’imagerie médicale a largement profité du développement rapide des microprocesseurs. Dans le même sens, chaque innovation dans un domaine donné ne trace pas la carte totale du territoire des projets d’augmentation et d’amélioration de l’être humain du projet transhumaniste, car chaque innovation, incrémentale par définition, et se limitant à un domaine donné, ne transforme pas l’humain dans sa totalité, mais améliore et/ou augmente seulement une partie de chaque être humain qui en profite. Par contre, étant donné que chaque être humain est membre d’une collectivité, et si chaque être humain de cette même collectivité est amélioré ou augmenté, alors toute la collectivité profite et/ou bénéficie chaque fois de façon incrémentale de l’amélioration apportée chez chacun. Conséquemment, chaque innovation incrémentale, que ce soit dans le domaine technologique ou social, transforme chaque fois les individus et la société. Autrement dit, l’individu et la société d’avant l’innovation ne sont plus tout à fait l’individu ou la société d’aujourd’hui ou de demain.

[▲]

complexité

La complexité technologique, ou complexité massive, se dit de tout système composé de systèmes hautement complexes en interaction, interconnectés et interopérables desquels émergent des propriétés inédites.

Notre écosystème technologique est devenu d’une telle complexité, qu’il est presque impossible de le comprendre, de l’appréhender ou d’en avoir le total contrôle. Même si chaque expert ou spécialiste connaît très bien le fonctionnement d’une pièce de cet immense casse-tête, il n’en reste pas moins qu’il est de plus en plus difficile d’en saisir le portrait global. La complexité technologique est à ce point massive, que même les experts qui ont conçu certains systèmes ne comprennent pas tout à fait comment certains d’entre eux arrivent à produire tel ou tel résultat. Et la chose est encore plus vraie lorsqu’il s’agit d’algorithmes d’intelligence artificielle.

En quoi consiste au juste la complexité d’un système ? Prenons comme exemple la voiture autonome. Il est possible de comprendre le comportement de la voiture autonome à travers l’ensemble des systèmes qui la composent. Pour qu’une voiture puisse être autonome, elle embarque plusieurs technologies différentes qui doivent toutes interagir. Ces technologies déjà développées pour d’autres domaines — le radar, le lidar (mesure en temps réel de la distance des objets immobiles ou en mouvement), le GPS, les capteurs odométriques qui captent le mouvement du véhicule, et la vision artificielle —, doivent arriver à communiquer entre elles et former un tout cohérent et fonctionnel que seul un algorithme d’intelligence artificielle sera en mesure d’intégrer et d’interpréter.

Bien qu’il soit simple de comprendre le fonctionnement global de chacun des composants d’une voiture autonome, il sera d’autant plus difficile de comprendre le fonctionnement de chacun des composants. Qui peut décrire l’ensemble des composants qui entrent dans la conception d’un radar ? En fait, à peu près personne. Pourquoi ? Parce que la somme de connaissances exigées pour comprendre le fonctionnement d’un seul composant d’un radar fait appel à des connaissances largement au-delà des seules compétences et connaissances d’un individu. Cependant, et c’est là toute la beauté d’un système, une fois que l’on connaît quel type d’intrants accepte un système, une fois que l’on sait dans quelle fourchette statistique se comportera un système, on peut dès lors prédire quels seront les extrants qui seront produits par le système. Partant de là, il est possible d’utiliser ces extrants pour les fournir en tant qu’intrants à l’un des autres systèmes qui composent l’ensemble de la voiture autonome. Autrement dit, une voiture autonome est un bricolage sophistiqué d’une grande complexité de systèmes eux-mêmes sophistiqués et hautement complexes. Finalement, la complexité totale qui émerge de toutes ces complexités est ce qui peut être décrit comme une complexité massive de laquelle peut émerger des anomalies tout à fait inattendues, et plus la complexité devient massive, plus elle est sujette à des anomalies.

De là, il est légitime de poser toute une série de questions. Dans une voiture autonome, quel est le degré de fiabilité du logiciel de chacun des composants ? Quel est le degré de fiabilité du système central d’intelligence artificielle qui collecte les données de tous les capteurs embarqués ? À quel moment les capteurs embarqués seront-ils susceptibles d’être affectés par des conditions de circulation difficiles, par des changements brusques de l’environnement (brouillard, pluie abondante, neige, blizzard, froid intense), par des interférences délibérées ou non ? Si les cartes routières numériques embarquées dans les logiciels ne sont pas constamment remises à jour, comment se diriger avec la plus grande précision possible ? Comment arriver à répartir le plus précisément possible le spectre des fréquences radio de chaque véhicule pour éviter que les autres véhicules environnants ne partagent la même fréquence ? Comment garantir, sur la chaîne de montage, que le moindre composant sera correctement installé et adéquatement calibré ? Quand le véhicule autonome n’est pas dans un environnement de conduite optimisée, quelles parades ont été prévues pour ce type d’environnement ? En cas d’accident inévitable, quelles décisions doit prendre le système d’intelligence artificielle embarqué ? Et il ne s’agit là que de quelques questions qui sont loin de faire le tour du problème. Au total, pour concevoir une voiture autonome, il faut tout d’abord décrire le fonctionnement de chacun de ses composants, prédire ses dérives possibles à des degrés variés, et répliquer autant de fois qu’il est nécessaire l’expérience pour chacun des composants afin de s’assurer que le système global qui interconnectera tous les composants sera assuré d’une stabilité dans la plus large gamme possible de cas de figure.

Hypothèse 1
Certaines tendances et certaines forces sont à l’œuvre qui complexifient de plus en plus chaque nouvelle génération de technologies au point de les rendre quasi incompréhensibles en termes de comportement, d’interactivité et d’interconnexion ; les algorithmes liés à l’intelligence artificielle augmenteront de plusieurs degrés ce niveau d’incompréhension.

Hypothèse 2
Lorsqu’une défaillance ou une anomalie informatique survient, celle-ci n’est pas le seul fait d’un code informatique en particulier ou d’un composant spécifique : elle émerge tout simplement de la complexité massive qui constitue intrinsèquement une quelconque technologie.

Ces deux hypothèses impliquent que tout code informatique, quel qu’il soit, est, par définition, porteur d’erreurs potentielles. Autrement dit, l’erreur est inhérente à tout système informatique. Que nous le voulions ou non, nous sommes entrés dans une ère où il est humainement impossible de saisir la complexité de ce que nous avons nous-mêmes créé et encore moins de ce qui sortira des algorithmes d’intelligence artificielle. Nous nous retrouvons donc dans une situation où les systèmes sont si complexes et si intimement liés et interconnectés, qu’ils interagissent parfois d’une façon tout à fait imprévisible et non prévue par les concepteurs. Il faut donc se faire à l’idée que des anomalies peuvent parfois émerger de la complexité des systèmes technologiques et qu’il est impossible d’identifier la cause exacte qui fait que certaines anomalies surviennent parfois.

[▲]

enchevêtrement

L’enchevêtrement technologique correspond au fait qu’un système fondé sur des technologies croît en complexité par accrétion, enchevêtrement, progression géométrique et effet d’entraînement.

Deux phénomènes contribuent systématiquement à l’enchevêtrement technologique : l’accrétion technologique et l’auto-accroissement technologique. La convergence de la dynamique de chacun de ces deux phénomènes conduit à une inextricabilité telle, qu’il devient quasi impossible de concevoir de nouveaux systèmes sans risquer de déclencher des cascades de problèmes incontrôlables.

accrétion technologique

L’accrétion technologique est ce processus qui fait en sorte que de nouvelles technologies se superposent successivement au fil du temps à des technologies déjà existantes et en service.

De façon générale, tout nouveau système informatique est élaboré à partir de substrats informatiques plus anciens. Tant que les différents composants fonctionnent adéquatement, il n’y a aucune raison de ne pas ajouter de nouveaux composants au-dessus de ceux déjà existants ; c’est que l’on nomme l’accrétion technologique, ce qui explique pourquoi l’infrastructure technologique, qui sous-tend l’ensemble des fonctions essentielles de nos sociétés technologiques, est soumise à cette agglomération de technologies, à cet accroissement inévitable en surface et en périphérie de toutes nouvelles technologies.

L’un des principaux problèmes avec l’accrétion, c’est que non seulement contribue-t-elle à faire croître de façon importante en dimension un système, mais elle contribue aussi à le rendre de moins en moins stable et prévisible au fur et à mesure que le phénomène d’accrétion agit. Dans le monde de l’informatique, il est fréquent de voir des systèmes qui roulent sur du matériel que plus aucune entreprise ne fabrique aujourd’hui et des langages de programmation désormais déclassés qui roulent pourtant encore sur certains ordinateurs.

Tous ces vieux systèmes et logiciels ne peuvent être mis au rancart, car ils font partie intégrante de ce qui rend l’écosystème technologique si inextricable. L’accrétion fait en sorte que ces anciens systèmes deviennent si profondément imbriqués dans l’ensemble de l’infrastructure technologique, que simplement les retirer est pire que de vivre avec les anomalies qu’ils provoquent. Et il ne faut pas se leurrer, l’intelligence artificielle sera une couche supplémentaire ajoutée par-dessus toute cette infrastructure technologique déjà existante. Au point où nous en sommes rendus en termes de développement technologique, où l’intelligence artificielle percole déjà dans une multitude d’applications, il est dorénavant plus difficile, voire même risqué, de faire table rase ou de repartir de zéro.

Toutefois, personne n’a vraiment idée des contributions importantes qu’apportent ces technologies vieillissantes sur lesquelles s’appuient celles que nous utilisons aujourd’hui. Par exemple, l’infrastructure technologique du système bancaire et financier est en développement depuis au moins quatre décennies, et à ce titre, au fil du temps, de nouvelles technologies se sont ajoutées à celles déjà en place, sans compter que celles-ci ont été développées de façon à s’adapter aux technologies déjà existantes. De nouveaux systèmes d’exploitation « discutent » avec de plus vieux systèmes, des logiciels sophistiqués et d’une grande complexité, conçus à différentes périodes, interagissent entre eux, se connectent à Internet, sans compter que des algorithmes d’intelligence artificielle trônent désormais au sommet de cet édifice technologique. Bien que les systèmes et les logiciels développés il y a trente ans l’aient été sans aucune connaissance de ce à quoi ressemblerait le futur, ceux-ci sont si profondément imbriqués dans l’infrastructure technologique du système bancaire et financier, qu’il est désormais impensable de les retirer, voire même de les remplacer par de nouveaux logiciels. Et nous devons nous faire à l’idée, toute infrastructure technologique est avant tout une infrastructure qui croît inévitablement par accrétion, faisant en sorte qu’il devient de moins en moins possible de se départir des technologies plus anciennes qui ont été à l’origine de cette même infrastructure sans risquer l’effondrement du système ou de le rendre instable.

auto-accroissement technologique

L’auto-accroissement technologique correspond à ce processus par lequel la technologie progresse par minuscules perfectionnements qui s’additionnent indéfiniment jusqu’à former une masse de conditions nouvelles qui permettent un pas décisif.

L’autonomie des technologies réside dans le fait que l’orientation et les choix technologiques s’effectuent d’eux-mêmes, parce que, entre deux technologies, l’une s’impose fatalement, parce que ses résultats se comptent, se mesurent, se voient et sont indiscutables. Par exemple, lorsque la société Apple, le 29 juin 2007, a présenté son premier iPhone équipé d’un écran tactile capacitif multipoints, elle a fatalement imposé une nouvelle façon d’interagir avec un écran. Tous les autres téléphones mobiles, qui n’étaient jusque-là que de simples téléphones mobiles dédiés au seul fait de téléphoner, ont par la suite été obligés de s’aligner (i) sur la technologie de l’écran tactile et (ii) sur un tout nouveau type d’interface. En fait, ce n’est pas tant que ce nouveau téléphone ait été équipé en sus d’une caméra, d’un GPS et de centaines d’applications qui en ont fait le succès, mais bien l’écran tactile capacitif multipoints. Entre la technologie du téléphone de type flip qui prévalait jusque-là, et la technologie de l’écran tactile capacitif multipoints qui débarquait tout juste, la dernière s’est fatalement imposée. Ce faisant, tous les autres fabricants de téléphones mobiles, constatant l’efficacité absolue en toutes choses de cette nouvelle technologie — elle se mesure, se voit, est indiscutable —, ont été confrontés à une toute nouvelle réalité commerciale.

effet d’entraînement technologique

Chaque innovation technologique provoque d’autres inventions technologiques dans différents domaines — progression géométrique — où le facteur humain n’est plus déterminant, mais où la condition technologique antérieure est impérativement déterminante.

Comme le souligne Jacques Ellul, « En premier lieu : une découverte technique a des répercussions et entraîne des progrès dans plusieurs branches de la technique et non pas dans une seule ; en second lieu : les techniques se combinent entre elles, et plus il y a de données techniques à combiner, plus il y a de combinaisons possibles. Presque sans volonté délibérée, par la simple combinaison des données nouvelles, il y a des découvertes incessantes dans tous les domaines et, bien plus, des champs entiers, jusqu’alors inconnus, souvent s’ouvrent à la technique parce que plusieurs courants se rencontrent1. »


Références
1 Ellul, J. ([1958] 1990), La Technique ou l’Enjeu du siècle, 3e éd., Paris : Armand Colin, p. 78.

[▲]

hypothèse du risque technologique

L’infrastructure technologique est à ce point complexe et inextricable, qu’il devient impossible de dissocier et de démêler les éléments qui la composent au risque de faire s’effondrer le système sur lui-même.

Chacun des systèmes qui constituent aujourd’hui l’infrastructure technologique est avant tout le fruit d’une ingénierie planifiée. Même si ces systèmes ont fait l’objet d’une conception rigoureuse, faisant d’eux des systèmes prévisibles et facilement réparables, lorsque pris séparément, il n’en reste pas moins que les mettre en relation les uns avec les autres constitue un risque que nul ne peut mesurer. Ce risque est lié à quatre phénomènes essentiellement technologiques :

  • l’Interconnexion technologique : les technologies compatibles entre elles doivent impérativement s’interconnecter afin de fournir des données pour optimiser différents processus ;
  • l’interaction technologique : étant donné qu’aucune technologie ne peut agir en vase clos, elle doit, par sa nature même, constamment entrer en interaction avec d’autres composants d’un système beaucoup plus vaste ;
  • l’interopérabilité technologique : non seulement les systèmes déjà compatibles entre eux se connectent-ils, non seulement interagissent-ils, mais il faut aussi faire en sorte que des systèmes non compatibles puissent communiquer entre eux, c’est-à-dire arriver à un ordre de connexion et d’interaction supérieur ;
  • l’interdépendance technologique : l’interdépendance intervient du moment où des systèmes qui n’ont jamais été conçus ni pour s’interconnecter ni pour être interopérables arrivent à se connecter pour en faciliter leur gestion.

En somme, plus nos sociétés deviennent technologiques, plus le risque augmente que le système finisse par s’effondrer sur lui-même.

[▲]

%d blogueurs aiment cette page :