L’interdépendance technologique

  La complexité technologique

L’interdépendance technologique

L’interdépendance technologique intervient du moment où des systèmes qui n’ont jamais été conçus ni pour s’interconnecter ni pour être interopérables arrivent à se connecter pour en faciliter leur gestion.

Le meilleur exemple qui puisse être donné de l’interdépendance technologique, est celui où Internet est couplé au réseau de distribution de l’électricité, couplé aux feux de circulation, couplé aux systèmes d’épuration des eaux usées, couplé aux appareils médicaux d’un hôpital. Il suffit qu’un seul élément de cette interdépendance fasse défaut, pour engendrer une cascade d’événements qui risquent de faire s’effondrer une grande partie de chacun de ces systèmes.

On peut se dire qu’il faut éviter à tout prix de rendre interopérables ces systèmes essentiels au bon fonctionnement de la société, mais c’est chose impossible. Pourquoi ? Parce que l’interconnexion peut se réaliser à un coût tellement minime qu’il serait tout à fait inconséquent de ne pas le faire. Et comme les ingénieurs s’activent à concevoir des interfaces efficaces et hautement opérationnelles pour chacun des systèmes qu’ils développent en se fondant sur les protocoles d’Internet, il suffit dès lors de relier entre eux les systèmes. Pourquoi s’en priver ?

Lorsque les ingénieurs développent de nouveaux systèmes, ils sont constamment confrontés au fait d’avoir à choisir entre le coût lié à une quelconque défaillance et le coût lié à la conception même. En fait, ils doivent trouver un compromis entre le fait de savoir ce qui se produira si les choses tournent mal versus le bon fonctionnement du système.

Par exemple, les anciennes versions du système d’exploitation Windows de la société Microsoft affichaient parfois un écran bleu avec un message énigmatique seulement compréhensible des concepteurs. Lorsque cet écran bleu survenait à brûle-pourpoint, tout était perdu, c’est-à-dire que si l’utilisateur rédigeait un texte sous Word et qu’il n’avait pas sauvegardé ce qu’il avait fait, il perdait alors une certaine partie de son travail. Au niveau d’un individu, les conséquences de ce dysfonctionnement n’ont pas forcément d’impacts majeurs. Cependant, lorsqu’il s’agit du réseau de distribution de l’électricité, un simple dysfonctionnement peut avoir des répercussions majeures sur la vie de dizaines de millions de gens.

Chaque dysfonctionnement, et les coûts qu’il engendre, s’il se manifeste, doit toujours faire l’objet d’un compromis entre les impacts de ce dysfonctionnement et les coûts de conception du système. Il a toujours été admis, chez les ingénieurs, que plus un système risque d’affecter un grand nombre de personnes s’il fait défaut, plus il doit être conçu de façon robuste ; les ponts en sont un bon exemple, tout comme les grands édifices. Plus un système exige de la robustesse, plus il coûte cher à développer, car tous les composants doivent être testés indépendamment. A contrario, plus les coûts de conception explosent lorsque vient le temps de mettre au point des systèmes robustes, plus on cherche des moyens de réduire ces coûts ; c’est une équation imparable.

À venir jusqu’à tout récemment, les coûts de développement d’un système robuste ont toujours excédé ceux liés à un quelconque dysfonctionnement, mais les choses ont changé au cours des dernières années avec des outils de modélisation et de conception informatiques toujours plus sophistiqués, efficaces et précis. Conséquence de ce revirement, les coûts liés à un quelconque dysfonctionnement ont, pour leur part, littéralement explosé. Je m’explique.

Il est dorénavant si simple et si peu coûteux de tout interconnecter et de tout rendre interopérable, que le moindre dysfonctionnement, peu importe d’où il émane dans l’ensemble du système, aura des impacts vraiment majeurs. Considéré sous cet angle, c’est un peu comme si toute notre civilisation était assise sur une bombe à retardement technologique.

Quand les coûts de conception chutent drastiquement et que les coûts liés à un quelconque dysfonctionnement augmentent de façon significative, c’est que, en tant que société, nous entrons dans l’univers d’une complexité quasi infinie dont nous ne connaissons ni les tenants ni les aboutissants. Par exemple, dans les années 1980 et 1990, en informatique, on parlait de mégaoctets, alors que depuis à peine une dizaine d’années, de nouveaux préfixes ont remplacé le préfixe méga : giga, tera, peta, exa.

Ces seuls préfixes en disent long sur la complexité croissante de nos systèmes et de nos sociétés, d’où la naissance d’une nouvelle discipline qui n’aurait jamais existé autrement, celle du Big Data ou « données massives ».

© Pierre Fraser (Ph. D.), sociologue, 2018

La complexité technologique

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.