banner
Centre d'Information
Facilité par un matériel de traitement de pointe

Démontrer pourquoi l'IA ne peut pas atteindre des sommets

Nov 30, 2023

Surprise Surprise. Avec tout l’enthousiasme et l’anxiété suscités par le fait que l’IA égalera ou dépassera bientôt l’intelligence humaine, il s’avère que l’IA a fait très peu de progrès depuis les années 1950.

ChatGPT et les chatbots similaires basés sur les derniers et les meilleurs modèles de langage étendus ne comprennent toujours pas : ils échouent au test d'ambiguïté sémantique.

Signe Chatbot pour le concept de service d'assistance.

Dans mon article précédent sur Yehoshua Bar-Hillel, un pionnier de la traduction automatique au début des années 1950, j'ai raconté les histoires qu'il a racontées sur l'apprivoisement des lions et des ordinateurs lors du premier symposium annuel de l'American Society for Cybernetics en 1967. Dans son discours, Bar-Hillel Hillel a également énuméré trois exigences pour « l'intelligence artificielle » : la capacité de manipuler le langage ; avoir des connaissances de base sur le monde ; et des capacités de raisonnement et de calcul, le tout au niveau d'un diplômé du secondaire. L’effort requis pour réaliser ces conditions préalables de l’intelligence artificielle, a déclaré Bar-Hillel, « serait incomparablement plus grand que celui requis pour placer l’homme sur Vénus ».

Quinze ans plus tôt, dans son discours d'ouverture de la conférence sur la traduction automatique qu'il organisait au MIT en juin 1952, Bar-Hillel était beaucoup plus optimiste : « Même s'il s'avérait qu'aucun des partenariats machine-cerveau possibles ne serait plus efficace qu'un traducteur humain, dans le sens où ils ne seront ni plus rapides, ni moins chers, ni plus précis que le traducteur humain, dans les conditions existantes aujourd'hui ou dans un avenir proche, je préconiserais fortement la poursuite de cette recherche. Les machines électroniques deviendront sans aucun doute moins chères, et les cerveaux humains probablement plus chers.»

En 1955, cependant, Bar-Hillel devint très pessimiste. Dans « Une démonstration de la non-faisabilité d’une traduction entièrement automatique de haute qualité », il écrit que la traduction de haute qualité par ordinateur « n’est qu’un rêve qui ne se réalisera pas dans un avenir prévisible ». Les chercheurs en traduction automatique, qui ne reconnaissent pas la « futilité pratique de cet objectif », a écrit Bar-Hillel, ont induit leurs sponsors en erreur en « n'étant pas satisfaits d'un système de traduction partiellement automatisé dont les principes sont bien compris aujourd'hui », en leur demandant d'attendre. « la vraie chose à laquelle on croyait, et qu'on faisait croire, était juste au coin de la rue. »

Juste au coin de la rue, ou comme OpenAI l’a dit dans une annonce récente, l’IA de superintelligence, « la technologie la plus percutante que l’humanité ait jamais inventée », pourrait arriver cette décennie et « pourrait conduire à la perte de pouvoir de l’humanité, voire à son extinction ».

L’exemple utilisé par Bar-Hillel dans son article pour démontrer la futilité de poursuivre le rêve d’une traduction automatique de haute qualité était la phrase suivante :

La boîte était dans l'enclos.

Et voici le contexte linguistique dont est tirée cette phrase :

Petit Jean cherchait son coffre à jouets. Finalement, il l'a trouvé. La boîte était dans l'enclos. John était très heureux.

Bar-Hillel explique cet exemple d'ambiguïté sémantique :

Supposons, par souci de simplicité, que pen en anglais n'a que les deux significations suivantes : (1) un certain ustensile d'écriture, (2) une enceinte où les petits enfants peuvent jouer. J'affirme maintenant qu'aucun programme existant ou imaginable ne permettra à un ordinateur électronique de déterminer que le mot pen dans la phrase donnée dans le contexte donné a la seconde des significations ci-dessus, alors que tout lecteur ayant une connaissance suffisante de l'anglais le fera « automatiquement ». ".

En discutant des solutions proposées par d’autres chercheurs en traduction automatique, Bar-Hillel déclare : « C’est un vieux préjugé, mais néanmoins un préjugé, selon lequel la prise en compte d’un environnement linguistique suffisamment large en tant que tel suffira à réduire l’ambiguïté sémantique d’un mot donné. »

Eh bien, c’était l’état du traitement du langage naturel (NLP) dans les années 1950. J'étais cependant absolument sûr que les grands modèles linguistiques (LLM) actuels, formés sur un nombre incalculable de textes et capables de les traiter (en parallèle), obtiendraient le « contexte linguistique » et le feraient toujours correctement.