De la panne technologique

La complexité technologique 

De la panne technologique

Le 8 juillet 2015 est une date à la fois technologiquement et financièrement connotée : les serveurs de la United Airlines, de la bourse de New York, du Wall Street Journal et du service d’urgence 911 de la ville de Seattle ont été inopérants pendant plusieurs heures. Qu’il s’agisse d’une cyberattaque, ou d’une anomalie d’un ou plusieurs logiciels, ne signifie pas la même chose. S’il s’agit d’une cyberattaque, il y a là la démonstration que les systèmes ne sont pas assez sécurisés ; ce genre de problème peut être corrigé dans un laps de temps plus ou moins court et ne peut, au demeurant, que renforcer la sécurité — le même principe prévaut lorsqu’il y a écrasement d’avion, c’est-à-dire que le système devient de plus en plus robuste au fil du temps. Toutefois, s’il s’agit d’une anomalie inhérente à un ou plusieurs logiciels, ou bien, à des composants physiques, alors là, le problème est d’une tout autre ampleur.

En fait, The Atlantic Magazine considère que le 8 juillet 2015 est le jour où les ordinateurs nous ont trahi[1]. Selon les explications officielles, un simple routeur défectueux aurait dégradé la connectivité du réseau, clouant ainsi au sol pendant deux heures plus de 5 000 vols de la United Airlines, affectant ainsi plus de 500 000 voyageurs au total. La bourse de New York, pour sa part, a suspendu ses opérations, histoire de ne pas faire chuter inutilement les marchés. La page principale du Wall Street Journal a été indisponible pendant plus de trois heures et son équipe informatique a annoncé qu’il s’agissait d’un problème technique. Faut-il ici rappeler que, la veille, les valeurs boursières avaient subi une baisse importante. Faut-il aussi rappeler que le célèbre Flash Crash du 6 mai 2010 avait entraîné une chute de 998,52 points du Standard & Poors en l’espace de 36 minutes, et ce, au paroxysme de la crise financière grecque[2] dans un contexte de grande volatilité boursière, pour rebondir par la suite de plus de 600 points[3].

Le 24 août 2015, un autre Flash Crash, en l’espace de quelques minutes, a fait plonger le Standard & Poors de 1965,15 à 1867,01 points, soit une perte de plus de 5 %. Selon plusieurs spécialistes, ce phénomène est à la convergence de différents facteurs. Dès les 20 et 21 août 2015, l’ensemble du marché était en mode vente d’actions, laissant ainsi dans l’expectative les investisseurs tout au long du week-end qui allait suivre. À l’ouverture des marchés asiatiques le lundi matin, et ce, plusieurs heures avant l’ouverture même des marchés boursiers américains, le Chinese Shanghai Composite Index chutait de plus de 8,5 %, ce qui força les traders américains à enclencher, eux aussi, une vente massive de leurs portefeuilles. En moins de temps qu’il ne faut pour le dire, et en l’espace de seulement quelques transactions, les systèmes informatiques avaient été victimes d’un flash crash[4].

Au niveau bancaire, seulement au Québec, la plus importante institution financière, Caisses Populaires Desjardins, a connu plusieurs interruptions de service au fil des années, non pas à cause de pirates informatiques, mais bien à cause de problèmes d’ordre informatique. Le 5 avril 2012, le salaire de milliers de clients n’a pu être versé dans leurs comptes bancaires[5]. Le lundi 5 octobre 2015, « le réseau informatique du Mouvement Desjardins éprouvait de nouveaux problèmes […] après la panne majeure qui a affecté le site de transactions bancaires AccèsD jeudi dernier [causé par un problème de télécommunications à l’interne]. Certains dépôts directs, dont les crédits de TPS versés par l’Agence de revenu du Canada, n’ont pas été effectués dans les comptes des clients, lundi matin. Des problèmes ont pu aussi toucher les dépôts directs d’autres payeurs[6] », et le 1er septembre 2016, « une anomalie dans l’alimentation de données dans le système a stoppé les dépôts pendant quelques heures[7]. » Selon le porte-parole de Desjardins, André Chapleau, « il y avait une ligne de code qui comportait un caractère irrégulier que le système ne reconnaissait pas. Ça peut avoir l’air complexe, mais si l’ordinateur avait continué et avait déposé les montants aux mauvais endroits, ça aurait causé encore plus de frustrations[8]. »

Partant de là, une question tout à fait légitime se pose : combien d’autres problèmes informatiques de même nature sont-ils survenus dans un laps de temps donné et dont nous n’avons jamais entendu parler ? En réalité, nous ne devrions surtout pas être surpris que ce genre de problème survienne, bien au contraire. Ce dont nous devrions plutôt être surpris, c’est de constater qu’ils ne surviennent pas plus souvent ou qu’ils ne soient pas rapportés plus souvent. À notre avis, et nous verrons plus loin pourquoi, si les choses sont ce qu’elles sont présentement, ce n’est peut-être rien en comparaison de ce qui nous attend lorsque les algorithmes d’intelligence artificielle investiront le moindre aspect de nos vies.

Pour étayer l’hypothèse que nous venons tout juste de formuler, alors que ces systèmes informatiques ne sont pas encore fédérés sous l’intelligence artificielle, chaque fois qu’un problème informatique majeur survient, il est impératif de colmater la brèche non pas en allant à la source même du problème, mais en codant une rustine qui se retrouvera par-dessus le problème en question pour l’intercepter lorsqu’il sera susceptible de survenir, jusqu’à ce qu’une nouvelle anomalie informatique ne se faufile à nouveau.

En fait, la majorité des grandes corporations, tout comme les moyennes et petites entreprises, préfèrent traiter le symptôme plutôt que s’attaquer au problème à la source même. Et ce réflexe, aussi curieux que la chose puisse paraître, est tout à fait justifiable, pour la simple raison que modifier un logiciel risque de provoquer une série de problèmes en cascade beaucoup plus importants, justifiant dès lors de mettre un cataplasme sur ce dernier.

Considérons pour un instant le cas de figure suivant : quand une entreprise développe un logiciel pour automatiser plusieurs de ces processus de fabrication et de gestion, ce dernier comportera invariablement sinon des dizaines de milliers de lignes de code, voire des centaines de milliers de lignes de code, peut-être même des millions en fonction de la dimension de l’entreprise.

Chaque ligne de code étant dédiée à une fonction spécifique, si l’une de celles-ci n’interagit pas adéquatement avec l’ensemble du système, elle est susceptible d’entraîner un effondrement total du système ou l’émergence d’une anomalie ; ceci n’est pas un cas d’école, mais une réalité que plusieurs entreprises ont eu à vivre à un moment ou l’autre. Pire encore, une simple mise à jour de certaines fonctions du système peut avoir des effets tout à fait imprévisibles. Autrement dit, vaut mieux se croiser les doigts lors du déploiement d’une mise à jour.

Finalement, que la United Airlines, la bourse de New York ou les Caisses populaires Desjardins reportent le blâme sur des anomalies informatiques ou sur des mises à jour, il n’en reste pas moins que tant que le problème ne sera pas résolu à la source, il est hautement probable que d’autres problèmes se manifesteront à nouveau. Mais voilà, justement, il n’est pas justifiable de résoudre le problème à la source, car aucune entreprise ne peut faire table rase de la technologie qu’elle a sous la main, tout simplement parce que les coûts seraient tout à fait exorbitants.

Certains spécialistes de l’informatique prétendent que les algorithmes intelligents seront en mesure de repérer les failles des systèmes déjà existants et de proposer des solutions pour en éviter la manifestation. Certes, on peut adhérer à ce discours, mais rien ne garantit, mais alors là, strictement rien, qu’il en sera tel qu’ils le prétendent. Ajouter une couche de logiciels par-dessus une autre couche de logiciels potentiellement sujets à l’erreur ne résoudra vraisemblablement pas le problème.

Partant de là, il est plausible d’avancer l’idée que lorsque de nouvelles technologies constituent de plus en plus l’infrastructure des communications et du traitement de l’information, les problèmes qui surgissent sont non seulement tout à fait nouveaux pour tout le monde, mais sont surtout tout à fait inattendus. Que faut-il alors penser de l’introduction massive de l’intelligence artificielle dans le moindre des logiciels, dans la moindre application et dans le moindre objet de l’Internet des objets ? Car, faut-il le rappeler, l’intelligence artificielle est un bricolage informatique de plusieurs degrés supérieurs à tout ce qui a été conçu à ce jour. De là une première hypothèse :

Première hypothèse à propos de la complexité

Certaines tendances et certaines forces sont à l’œuvre qui complexifient de plus en plus chaque nouvelle génération de technologies au point de les rendre quasi incompréhensibles en termes de comportement, d’interactivité et d’interconnexion, sans compter que les algorithmes liés à l’intelligence artificielle augmenteront de plusieurs degrés ce niveau d’incompréhension.

À partir de cette hypothèse, il faut tout d’abord commencer par identifier quelles sont ces tendances et ces forces qui tendent à complexifier de plus en plus toutes nouvelles technologies. Par la suite, il faudra voir comment l’intelligence artificielle décuplera cette complexité. Y aura-t-il de plus en plus de 8 juillet 2015, c’est-à-dire que des anomalies informatiques parfois inexplicables se manifesteront de plus en plus ?

Partant de là, il faut se demander si oui ou non cette complexité technologique risque de fragiliser l’ensemble de la société.

© Pierre Fraser (Ph. D.), sociologue, 2018

[1] Chandler, A. (2015 [8 juillet]), The Day the Computers Betrayed Us, The Atlantic Magazine, URL: http://theatln.tc/2emMVvU.

[2] CNN Money Staff (2015 [21 septembre]), The Greek crisis…in 2 minutes, CNN Money, URL: http://theatln.tc/2emMVvU.

[3] The Economist On Line, (2010 [1e octobre]), What caused the flash crash? One big, bad trade, The Economist, URL: http://econ.st/2e9QuKQ.

[4] Mitchell, C. (2016 [11 janvier]), The Two Biggest Flash Crashes of 2015, Investopedia, URL : http://bit.ly/2f2TPu9.

[5] Radio-Canada (2012 [5 avril]), Problèmes informatiques chez Desjardins, URL: http://bit.ly/2fo9cMq.

[6] Agence QMI (2015 [5 octotbre]), Encore des problèmes informatiques chez Desjardins, Journal de Montréal, URL : http://bit.ly/2eIgQQ7.

[7] Radio-Canada (2016 [1e septembre), Perturbations informatiques chez Desjardins, URL: http://bit.ly/2fDVQz9.

[8] Idem.

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.