Cette intelligence artificielle capable de générer des textes, comme ChatGPT, est accessible aux scientifiques à des fins de recherche sur cette technologie.
Meta a dévoilé vendredi sa propre version d'intelligence artificielle (IA) pouvant générer du texte, comme ChatGPT, l'ouvrant pour l'instant aux chercheurs afin qu'ils puissent répondre aux risques posés par ces nouvelles technologies.
L'objectif de ce nouveau modèle de langage baptisé LLaMA est «d'aider les chercheurs à progresser dans leurs travaux» sur ce sujet, notamment car il ne requiert pas des infrastructures très importantes pour être étudié, précise l'entreprise dans un texte de présentation.
Le lancement en novembre du robot conversationnel ChatGPT de la start-up OpenAI a en effet bousculé le monde de l'IA en permettant au grand public de constater les capacités des nouveaux «modèles de langage» à générer, en quelques secondes, un texte sur un thème donné ou à fournir une explication sur un sujet complexe. Mais elles présentent aussi des risques, qu'il s'agisse d'erreurs factuelles, de parti pris ou de la protection des données.
Une version test du moteur de recherche Bing de Microsoft, développée en partenariat avec OpenAI, a ainsi rapidement émis des réponses incohérentes, le programme informatique exprimant notamment des menaces ou son désir de voler les codes nucléaires.
À lire aussiIA : Bing Chat s'emporte contre les internautes qui le poussent dans ses retranchements
«Des travaux de recherche supplémentaires sont nécessaires pour traiter les risques de partialité, de commentaires toxiques et d'hallucinations», affirme Meta, la maison mère de Facebook et Instagram. Mais il faut des ressources importantes, notamment en termes de puissance de calcul, pour entraîner et faire fonctionner ces modèles de langage.
À lire aussiIntelligence artificielle: Google va-t-il perdre sa suprématie sur Internet?
Cela «limite la capacité des chercheurs à comprendre à comprendre comment et pourquoi ces grands modèles de langage fonctionnent, ce qui entrave les efforts visant à améliorer leur robustesse et à atténuer les problèmes connus, tels que les biais, la toxicité et la possibilité de générer des informations erronées», remarque l'entreprise.
C'est pourquoi Meta a développé plusieurs versions de LLaMA, nécessitant plus ou moins de ressources. Alors qu'OpenAI et Microsoft limitent l'accès aux technologies faisant fonctionner leur IA, l'entreprise de Mark Zuckerberg a décidé de partager la façon dont il a élaboré LLaMA afin que les chercheurs puissent «plus facilement tester de nouvelles approches pour limiter ou éliminer» les problèmes.
À VOIR AUSSI - Metaverse: «un projet de très long terme» pour Mark Zuckerberg, selon Chloé Woitier
from Sciences et technologies - Dernières infos - Google Actualités https://ift.tt/jlNYkiy
via IFTTT
Aucun commentaire:
Enregistrer un commentaire