Les Hallucinations de l’IA, un ajout aux Malheurs du Monde ? (1/2)

Nous le savons mais c’est tout de même bizarre quand on y pense.

Depuis plus d’un demi-siècle l’informatique a tout fait pour produire des résultats exacts, fiables et cohérents dans le temps. Nous en avons pris l’habitude et nous comptons sur ces qualités, que ce soit pour le freinage de notre voiture ou le calcul de nos impôts..

Et voici qu’en 2024, quand on utilise les derniers avatars de l’IA nous avons des systèmes qui, entre autres exemples, ne sont même pas capables de donner un résultat fiable à un calcul de base comme peut le faire n’importe quelle calculatrice ou nous ajoute stupidement des doigts plus qu’il nous en faut quand on leur demande d’élaborer (je n’ai pas dit créer) l’image d’un être humain.

Que signifient ces Hallucinations ?

Je pense qu’il s’agit là d’une question bien plus importante qu’il n’y paraît et que pourrait laisser penser le terme d’hallucination. Je vous propose que nous l’étudions ensemble, de façon détaillée, dans une série d’articles. Car nous le savons tous, c’est dans le détail que se trouve le diable et c’est dans le détail que se trouve la réalité de nos IA. Le sujet ne peut pas être survolé si l’on a le désir d’en percevoir les forces et les limitations. Car si nous pensons – et je le pense – que l’IA modèle notre avenir il est alors crucial d’en saisir non seulement les attraits mais également les perversions.

La problématique de ces hallucinations réside dans l’évolution de ce l’on entend exactement par « Intelligence Artificielle » au cours des 30 dernières années.

Je ne reviendrai pas sur l’utilisation du terme « Intelligence » qui est déjà un problème en soi, induisant une confusion entre l’intelligence artificielle et l’intelligence humaine. Cette confusion, voulue par l’inventeur en 1955 de cette terminologie, John McCarthy, a fait et continue à faire le lit du fantasme du démiurge.

Depuis plus d’un demi siècle l’essentiel de ce qui était réalisé au travers de la programmation informatique était de résoudre des problèmes de manière exacte, à l’exemple d’une calculatrice de poche. Il y a 30 ans, l’application automatisée de ces méthodes était considérée comme une forme d’ « l’intelligence artificielle ».

Aujourd’hui, pourtant, la plupart des applications que nous appelons « IA » sont basées sur de l’apprentissage automatique (Machine Learning, ML). Il s’agit d’un paradigme de programmation automatisée pour lequel, plutôt que d’appliquer une logique déductive afin de produire des résultats que l’on sait corrects, à l’instar d’une calculatrice de poche, il est produit des prédictions, dont on s’attend à ce qu’elles soient, parfois, erronées.

Une « hallucination » n’est pas une « erreur »

Dans une 1ère partie de cette série d’articles je proposerai un aperçu de ce que cette démarche implique, en passant en revue la différence fondamentale entre l’apprentissage automatique et les anciens types d’IA. Afin de comprendre pourquoi nous trouvons aujourd’hui acceptable que ces types de systèmes produisent des erreurs là où les programmes informatiques plus classiques n’en produisaient pas.

Nous verrons ensuite qu’il existe une différence fondamentale entre une « hallucination » et une « erreur » et nous envisagerons les risques qu’entraînent des résultats erronés.

Enfin je reviendrai sur le titre de cette série et pourquoi la citation d’Albert Camus, « mal nommer les choses, c’est ajouter au malheur du monde » s’applique si bien à la version actuelle de l’IA.

more posts