Une vie quantique

Posté le Thu 02 October 2025 dans Réflexions
Temps de lecture estimé : 4 minute(s).

Depuis des centaines d'années, les scientifiques essaient de comprendre le monde avec une obsession : le rendre prévisible. Archimède, Newton, Einstein et les autres ont passé leur vie à expérimenter, tester, se tromper, analyser, recommencer, pour réussir à transformer le chaos apparent en équations fiables, réutilisables, rassurantes. Grâce à eux, si je lâche mon téléphone, je sais qu'il va s'écraser par terre (et probablement se briser, parce que les lois de la physique ont aussi un sens de l'humour). Si je mets la main sur une plaque chauffante, je suis certain à 100% que je vais regretter mon geste. Bref, le monde macroscopique est un endroit rassurant, où tout semble obéir à des règles bien définies.

Et puis un jour, en se penchant sur l'infiniment petit, ces mêmes scientifiques ont découvert la physique quantique. Cette physique imprévisible où les particules jouent à pile ou face avec les lois de la nature. Cette physique où les équations ne donnent plus des certitudes, mais des probabilités. Un électron peut être ici ou là, voire même ici ET là, comme s'il avait décidé d'embrasser le doute existentiel. Je trouve cela totalement fascinant que notre monde et toute sa stabilité repose sur les comportements imprévisibles des particules élémentaires.

Aujourd'hui, je me demande si l'informatique n'est pas en train de reproduire ce modèle. Jusqu'à présent, nous, les développeurs, avons écrit du code déterministe : un algorithme bien conçu, testé, débugué, et surtout qui donne toujours le même résultat. Nous faisions la chasse au moindre bug, afin d'avoir des résultats 100% fiables et reproductibles. Par exemple, si notre application bancaire nous dit qu'on a 1000€ sur notre compte, on veut être sûr à 100% qu'on a bien ces 1000€ sur le compte... pas qu'on a 99.9% de chances de les avoir.

Mais depuis quelques années, l'IA est apparue. Cette nouvelle façon de faire de l'informatique est une véritable innovation, et elle est incroyable d'ingéniosité. Mais avec elle, on commence à perdre cette reproductibilité rassurante. Les modèles de language devinent quel mot a le plus de probabilités de suivre dans le texte. Les systèmes de reconnaissance d'image te jurent que c'est ton chat qui est sur la photo... avec 1.1% de doute. Les algorithmes de deep learning choisissent l'option qui a statistiquement le plus de chances d'être la meilleure... pas celle qui est objectivement la meilleure. C'est un peu leur version du principe d'incertitude de Heisenberg.

Le problème, c'est que cette incertitude, on l'intègre maintenant partout. Dans nos téléphones, qui corrigent nos fautes de frappe en devinant ce qu'on voulait écrire. Dans nos voitures, qui freinent probablement au bon moment. Dans nos métiers, où des outils nous suggèrent des décisions basées sur des tendances, pas sur des certitudes. On construit des logiciels critiques (systèmes d'analyse médicale, systèmes bancaires, ...) sur des fondations qui, par définition, ne peuvent pas délivrer des résultats fiables à 100%.

L'IA envahit nos vies. Partout, de plus en plus. Il y certains domaines historiquement basés sur des données statistiques, comme les assurances, la météo, le trading. Ici l'intelligence artificielle excelle et apporte une véritable plus-value. Mais qu'en est-il des domaines qui ont besoin de beaucoup plus de stabilité ? Quid des systèmes embarqués, des appareils médicaux ou chirurgicaux, des réseaux électriques intelligents, des centrales nucléaires, des systèmes militaires, des chaînes de production, des moyens de transport, de la justice, du vote électronique ? Il y a quand même tout un tas de systèmes ou l'erreur n'est aujourd'hui simplement pas envisageable. Je ne dis pas qu'une erreur ne va pas se produire, mais qu'au moins on ne se base pas aujourd'hui sur un modèle qui intrinsèquement intègre une marge d'erreur quasiment incontrôlable.

J'ai l'impression qu'on est en train d'injecter du quantique dans nos systèmes jusqu'à présent déterministes, en espérant que les probabilités joueront en notre faveur. Jusqu'où peut-on pousser ce modèle avant que ça devienne dangereux ? C'est quoi une erreur "acceptable" ? Comment se mesure la marge d'erreur acceptable ? En vies humaines ou en millions d'euros ? À quel moment, sur des systèmes critiques, acceptera-t-on de dire "Bon, allez, 0.01% c'est quand même pas beaucoup. On va croiser les doigts et espérer que ca passe" ?

Tout cela me fascine autant que ça m'inquiète. On verra bien ce que le futur nous réserve, mais aujourd'hui je suis convaincu d'une chose : à l'époque où des milliers de métiers vont être remplacés par l'IA, les métiers des statistiques et de l'analyse de risques ont encore un bel avenir devant eux...