banner

Nouvelles

Nov 30, 2023

L'intelligence générale artificielle n'est pas aussi imminente que vous pourriez le penser

Pour la personne moyenne, il doit sembler que le domaine de l'intelligence artificielle fait d'immenses progrès. Selon certains des comptes rendus médiatiques et des communiqués de presse les plus enthousiastes, le DALL-E 2 d'OpenAI peut apparemment créer des images spectaculaires à partir de n'importe quel texte ; un autre système OpenAI appelé GPT-3 peut parler d'à peu près n'importe quoi et même écrire sur lui-même ; et un système appelé Gato qui a été lancé en mai par DeepMind, une division d'Alphabet, aurait bien fonctionné sur toutes les tâches que l'entreprise pouvait lui confier. L'un des cadres supérieurs de DeepMind est même allé jusqu'à se vanter que dans sa quête pour créer une IA dotée de la flexibilité et de l'ingéniosité de l'intelligence humaine - connue sous le nom d'intelligence générale artificielle, ou AGI - "le jeu est terminé".

Ne soyez pas dupe. Les machines seront peut-être un jour aussi intelligentes que les gens et peut-être même plus intelligentes, mais le jeu est loin d'être terminé. Il reste encore énormément de travail à faire pour fabriquer des machines qui puissent vraiment comprendre et raisonner sur le monde qui les entoure. Ce dont nous avons besoin en ce moment, c'est de moins de postures et de plus de recherche fondamentale.

L'IA fait des progrès - les images synthétiques semblent de plus en plus réalistes et la reconnaissance vocale peut souvent fonctionner dans des environnements bruyants - mais nous sommes encore probablement à des décennies d'une IA à usage général, au niveau humain, capable de comprendre la véritable signification d'articles et de vidéos ou faire face aux obstacles et aux interruptions imprévus. Le domaine est bloqué précisément sur les mêmes défis que les scientifiques universitaires (y compris moi-même) ont signalés pendant des années : rendre l'IA fiable et la faire faire face à des circonstances inhabituelles.

Prenez le Gato récemment célèbre, un prétendu touche-à-tout, et comment il a sous-titré l'image d'un lanceur lançant une balle de baseball (ci-dessus). Les trois principales suppositions du système étaient :

Un joueur de baseball lance une balle sur un terrain de baseball. Un homme lance une balle de baseball sur un lanceur sur un terrain de baseball. Un joueur de baseball au bâton et un receveur dans la terre lors d'un match de baseball.

La première réponse est correcte, mais les deux autres réponses incluent des hallucinations d'autres joueurs qui ne sont pas visibles sur l'image. Le système n'a aucune idée de ce qui se trouve réellement dans l'image, au-delà des approximations grossières qu'il tire des similitudes statistiques avec d'autres images. Tout fan de baseball reconnaîtrait qu'il s'agit d'un lanceur qui vient de lancer la balle et non l'inverse. Et bien qu'on s'attende à ce qu'un receveur et un frappeur soient à proximité, ils n'apparaissent évidemment pas sur l'image.

De même, DALL-E 2 ne pouvait pas faire la différence entre une image d'un cube rouge au-dessus d'un cube bleu et une image d'un cube bleu au-dessus d'un cube rouge. Un système plus récent, sorti en mai dernier, ne pouvait pas faire la différence entre un astronaute à cheval et un cheval à cheval sur un astronaute.

Lorsque des systèmes de création d'images comme DALL-E 2 font des erreurs, le résultat peut être amusant. Mais parfois, les erreurs produites par l'IA entraînent de graves conséquences. Une Tesla en pilote automatique s'est récemment dirigée directement vers un travailleur humain portant un panneau d'arrêt au milieu de la route, ne ralentissant que lorsque le conducteur humain est intervenu. Le système pouvait reconnaître les humains par eux-mêmes (c'est ainsi qu'ils apparaissaient dans les données d'entraînement) et les panneaux d'arrêt à leurs emplacements habituels (tels qu'ils apparaissaient dans les images d'entraînement), mais ne ralentissait pas lorsqu'il était confronté à la combinaison inconnue des deux, qui a mis le panneau d'arrêt dans une position nouvelle et inhabituelle.

Malheureusement, le fait que ces systèmes ne fonctionnent toujours pas de manière fiable et luttent avec de nouvelles circonstances est généralement enterré dans les petits caractères. Gato, par exemple, a bien fonctionné sur toutes les tâches signalées par DeepMind, mais rarement aussi bien que sur d'autres systèmes contemporains. GPT-3 crée souvent une prose fluide mais a du mal avec l'arithmétique de base et a si peu de prise sur la réalité qu'il est enclin à créer des phrases telles que "Certains experts pensent que le fait de manger une chaussette aide le cerveau à sortir de son état altéré en tant que résultat de la méditation." Cependant, un regard rapide sur les gros titres récents ne vous renseignera sur aucun de ces problèmes.

L'intrigue secondaire ici est que les plus grandes équipes de chercheurs en IA ne se trouvent plus dans l'académie, où l'examen par les pairs était la monnaie du royaume, mais dans les entreprises. Et les entreprises, contrairement aux universités, n'ont aucune incitation à jouer franc jeu. Plutôt que de soumettre leurs nouveaux articles éclaboussants à un examen académique, ils ont opté pour la publication par communiqué de presse, séduisant les journalistes et contournant le processus d'examen par les pairs. Nous ne savons que ce que les entreprises veulent que nous sachions.

Dans l'industrie du logiciel, il y a un mot pour ce genre de stratégie : "demoware", un logiciel conçu pour être beau pour une démo mais pas nécessairement assez bon pour le monde réel. Souvent, les démowares deviennent des vaporwares, annoncés pour choquer et effrayer les concurrents mais jamais sortis du tout.

Les poulets ont tendance à rentrer à la maison pour se percher, cependant, finalement. La fusion froide a peut-être semblé géniale, mais vous ne pouvez toujours pas l'obtenir au centre commercial. L'IA connaîtra probablement un hiver d'attentes dégonflées. Trop de produits, comme les voitures sans conducteur, les radiologues automatisés et les agents numériques polyvalents, ont fait l'objet de démonstrations, ont fait l'objet d'une publicité et n'ont jamais été livrés. Pour l'instant, les dollars d'investissement continuent d'être promis (qui n'aimerait pas une voiture autonome ?). Mais si les problèmes fondamentaux de manque de fiabilité et d'incapacité à faire face aux valeurs aberrantes ne sont pas résolus, les investissements se tariront. Nous pouvons obtenir des avancées solides dans la traduction automatique et la reconnaissance de la parole et des objets, mais trop peu d'autres choses à montrer pour tout le battage médiatique prématuré. Au lieu de villes "intelligentes" et de soins de santé "démocratisés", nous nous retrouverons avec des deepfakes destructeurs et des réseaux énergivores qui émettent d'immenses quantités de carbone.

Bien que l'apprentissage en profondeur ait amélioré la capacité des machines à reconnaître des modèles dans les données, il présente trois défauts majeurs. Les schémas qu'il apprend sont, ironiquement, superficiels et non conceptuels ; les résultats qu'il crée sont difficiles à interpréter ; et les résultats sont difficiles à utiliser dans le contexte d'autres processus, tels que la mémoire et le raisonnement. Comme l'a noté l'informaticien de l'Université de Harvard, Les Valiant, "Le défi central [pour l'avenir] est d'unifier la formulation de ... l'apprentissage et le raisonnement." Vous ne pouvez pas traiter avec une personne portant un panneau d'arrêt si vous ne comprenez pas vraiment ce qu'est un panneau d'arrêt.

Pour l'instant nous sommes piégés dans un "minimum local" dans lequel les entreprises poursuivent des repères plutôt que des idées fondatrices. La pratique actuelle de l'ingénierie est bien en avance sur les compétences scientifiques : ces départements se concentrent sur de petites améliorations avec les outils mal compris dont ils disposent déjà plutôt que sur le développement de nouvelles technologies avec un fondement théorique plus clair. C'est pourquoi la recherche fondamentale reste cruciale. Qu'une grande partie de la communauté de recherche sur l'IA (comme ceux qui crient "Game over") ne voit même pas cela est, eh bien, déchirant.

Imaginez si un extraterrestre étudiait toutes les interactions humaines uniquement en regardant les ombres au sol, remarquant, à son crédit, que certaines sont plus grandes que d'autres et que toutes les ombres disparaissent la nuit. Peut-être remarquerait-il même que les ombres grossissaient et rétrécissaient régulièrement à certains intervalles périodiques, sans jamais lever les yeux pour voir le soleil ou reconnaître le monde 3D au-dessus.

Il est temps pour les chercheurs en intelligence artificielle de lever les yeux sur les démonstrations flashy et directement dans les médias et de poser des questions fondamentales sur la façon de construire des systèmes capables d'apprendre et de raisonner en même temps.

L'intelligence artificielle sera-t-elle un jour à la hauteur de son succès ? John Horgan; ScientificAmerican.com, 4 décembre 2020.

Kate Wang

Daniel Cusick et E&E News

Brianne Kane

H.-S. Philippe Wang | Avis

Naomi Oreskes

Philippe Boule

PARTAGER