jeudi 30 novembre 2023

Un an après ChatGPT, une course effrénée à l'IA qui divise - 20 Minutes

Illustration créée avec GPT-4 et Dall-e 3 de « la rencontre d'une intelligence artificielle générale et d'un scientifique ». — OpenAI
  • Il y a exactement un an, le grand public découvrait les progrès de l’intelligence artificielle avec l’agent conversationnel ChatGPT.
  • A la surprise générale, Sam Altman, le patron d’OpenAI, a été soudainement viré par le conseil d’administration de la start-up il y a dix jours, avant de faire son grand retour après une fronde des employés.
  • Alors qu’une course est engagée pour concevoir une « intelligence artificielle générale » rivalisant avec celle des humains, certains experts sonnent l’alarme.

De notre correspondant en Californie,

« Les machines peuvent-elles penser ? » La question, posée par le père de l’informatique Alan Turing en 1950, n’a toujours pas de réponse définitive. Mais alors que le grand public découvrait les progrès de l’intelligence artificielle avec le lancement fracassant de ChatGPT il y a tout juste un an, sa start-up « mère », OpenAI, a failli voler en éclats mi-novembre. Subitement limogé par le conseil d’administration, son patron, Sam Altman, a fait son grand retour après une fronde des employés. Les médias américains évoquent des divisions entre deux factions.

D’un côté les « boomers » techno-optimistes, souhaitant développer le plus vite possible une AGI (Artificial General Intelligence), une IA « générale » égalant celle des humains. De l’autre les « doomers », effrayés par les risques apocalyptiques d’une super-intelligence aux intérêts potentiellement non-alignés avec les nôtres. Face à cette lutte idéologique quasi-religieuse, les pouvoirs publics semblent avoir du mal à décider comment réguler une technologie galopante qui pourrait avoir des conséquences aussi profondes sur notre société que la révolution industrielle. Ou le Manhattan Project.

Un pas vers une IA générale ?

Deux semaines après la bataille qui a secoué la Silicon Valley, peu de détails ont filtré. Selon l’agence Reuters, avant de tenter d’écarter Altman en l’accusant de « ne pas toujours avoir été franc dans ses communications », le board a reçu une lettre de chercheurs d’OpenAI l’avertissant d’une avancée majeure qui pourrait, selon Reuters, menacer l’humanité. Le projet, baptisé Q* (« Q-star »), serait capable de résoudre certains problèmes mathématiques plus complexes que GPT-4, le dernier modèle de langage lancé par OpenAI au printemps. Sans aller jusqu’à affirmer que le Graal d’une AGI a été atteint, cette lettre pourrait suggérer qu’un cap a été franchi par les équipes d’Ilya Sutskever.

Si Sam Altman est devenu le visage de l’IA, Sutskever, cofondateur d’OpenAI et son scientifique en chef, est l’un des cerveaux les plus brillants de la discipline. Ses travaux chez Google ont contribué à créer, en 2017, l’architecture de deep learning (apprentissage profond) Transformer (le « T » de ChatGPT), sur laquelle reposent tous les modèles actuels d’IA générative. Au lieu de passer un texte à la moulinette lettre à lettre dans un ordre séquentiel, l’architecture Transformer permet d’analyser plusieurs mots en parallèle, pour une puissance décuplée.

Lors d’un Ted talk enregistré quelques semaines avant la tentative de putsch à OpenAI, Sutskever vantait le potentiel d’une AGI – mais également les risques – assurant travailler sur des solutions « pour qu’une IA ne se rebelle jamais ». Après l’annonce du retour de Sam Altman, Sutskever s’est excusé sur X, écrivant : « Je regrette profondément ma participation aux actions du board. Je n’ai jamais eu l’intention de faire du mal à OpenAI. »

Ces divisions internes ne sont pas nouvelles. D’abord lancée en 2015 comme un labo de recherche à but non lucratif pour garantir le développement d’une IA « bénéfique pour l’humanité », la start-up et Sam Altman ont progressivement cédé aux sirènes du capitalisme. Après le départ d’Elon Musk – l’un des cofondateurs – OpenAI a créé en 2019 une filiale lui permettant de lever davantage de fonds et de commercialiser ses produits. Mais le board, lui, est resté garant d’un but lucratif « plafonné » et d’une prudence technologique. Soutenu par 90 % des employés, qui ont menacé de partir chez Microsoft, Sam Altman a gagné la bataille et est revenu en héros, avec un nouveau conseil d’administration en train d’être constitué.

Les experts divisés sur les risques

Ce fossé se retrouve chez les plus grands experts du secteur. En prenant sa retraite de chez Google au printemps, Geoffrey Hinton, l’un des pères de l’IA et ancien mentor d’Ilya Sutskever, a fait la tournée des plateaux TV pour sonner l’alarme face au risque que les humains deviennent « la seconde espèce la plus intelligente de la planète ». Selon lui, même si les Large Language Models (LLM) sur lesquels sont basées les IA génératives ne font techniquement que deviner le prochain mot le plus probable, ils ont atteint une véritable compréhension du langage, et sont capables de raisonner et d’apprendre de leurs expériences. Pour Hinton, ce n’est qu’une question de temps et de puissance avant que ces systèmes ne deviennent conscients.

Le Français Yann LeCun, pionnier des réseaux neuronaux et patron de l’IA chez Meta, n’est pas convaincu. Sur la scène du World Science Festival, il a assuré cette semaine que l’IA resterait à jamais « un outil », insistant sur le fait que « le désir de domination » n’est pas, selon lui, « lié à l’intelligence ».

Pourquoi autant de divergence entre ces deux scientifiques co-lauréats du Turing award (le Nobel de l’informatique) en 2018 ? « Ces modèles sont massifs et on ne comprend pas complètement comment ils fonctionnent ni comment ils pourraient évoluer », explique à 20 Minutes Wael Abd-Almageed, directeur de recherche à l’Information sciences institute (ISI) de l’université USC de Los Angeles.

Les LLM ne sont pas totalement des boîtes noires : les chercheurs contrôlent les données passées à la moulinette (des centaines de milliards de textes provenant du Web, d’encyclopédies et de livres) et les règles d’apprentissage. Mais après un entraînement de 100 jours, un système comme GPT-4 surprend parfois ses créateurs avec des fonctionnalités « émergentes » non-prévues, comme la capacité à résoudre certains problèmes mathématiques ou à deviner le titre d’un film à partir d’une série d’emojis. Il peut également y avoir de mauvaises surprises, comme l’apparition de biais ou d'« hallucinations », quand l’IA invente n’importe quoi en étant persuadée d’avoir raison.

Deux visions du futur (illustration créée avec GPT-4 et Dall-e 3 ).
Deux visions du futur (illustration créée avec GPT-4 et Dall-e 3 ). - OpenAI

Même s’il cartonne sur certains tests standardisés, et qu’il est capable d’être reçu en école de médecine ou au barreau, GPT-4 fait encore des erreurs arithmétiques triviales. Sa compréhension du langage, parfois bluffante, ne semble que superficielle : selon nos tests, l’IA d’OpenAI est nulle aux énigmes du père Fourras et a beaucoup de mal avec les contrepèteries. Mais Geoffrey Hinton insiste : c’est comme avec des élèves qui font des erreurs, cela ne signifie pas qu’ils ne sont pas intelligents. Tout est affaire de progrès. Et ceux de l’IA sont fulgurants.

Des régulations qui se cherchent

Dans le monde, une course à l’IArmement est engagée, avec des modèles de plus en plus puissants. Microsoft a investi dans OpenAI. Google (Palm 2) et Meta (Llama 2) ont répondu à GPT-4. Elon Musk et xAI ont lancé Grok. Des anciens d’OpenAI ont fondé Anthropic, une « public-benefit corporation », avec son chatbot Claude 2 qui donne la priorité à la sécurité. La France n’est pas en reste avec la nouvelle pépite Mistral AI, créée par trois anciens de Deepmind (Google) et de Meta, qui mise sur un modèle open-source, Mistral 7B, que n’importe qui peut télécharger gratuitement. La start-up allemande Aleph Alpha, elle, vient de lever 500 millions de dollars.

Face à cette progression exponentielle de l’IA, les pouvoirs publics ont du mal à se positionner. En fin tacticien, Sam Altman a plaidé devant le Congrès américain pour davantage de régulations, sans trop s’engager. Il y a quelques mois, il menaçait Bruxelles de boycotter le marché européen si le texte destiné à encadrer l’intelligence artificielle (AI Act) était voté. Après un revirement de Paris, Rome et Berlin – qui craignent de pénaliser les efforts européens en matière d'IA – on semble se diriger vers une loi beaucoup moins contraignante misant sur un code de conduite volontaire des entreprises concevant des modèles d’IA générative.

« La Big Tech continue de lancer ces modèles pour gagner de l’argent sans véritablement étudier les conséquences potentiellement désastreuses sur la désinformation, la démocratie, les marchés financiers ou la sécurité des enfants », dénonce Wael Abd-Almageed. Il offre toutefois une lueur d’espoir : avec ses collègues de l’ISI, il vient de publier des recherches montrant que la création de vidéos synthétiques « complètement indétectables est théoriquement impossible ». « On sera toujours capable de détecter des deepfakes », assure-t-il. Les humains n’ont pas dit leur dernier mot.

Adblock test (Why?)



from Sciences et technologies - Dernières infos - Google Actualités https://ift.tt/XvsAN6J
via IFTTT

Aucun commentaire:

Enregistrer un commentaire

Samsung frappe un grand coup avec ces 3 récents smartphones à prix canon - 20 Minutes

[unable to retrieve full-text content] Samsung frappe un grand coup avec ces 3 récents smartphones à prix canon    20 Minutes Promotion u...