Suivez en direct la conférence d'OpenAI grâce à la vidéo YouTube ci-dessous et nos commentaires au fil de l'eau. Pour rappel, on s'attend à ce que la firme ayant créé ChatGPT présente un concurrent sérieux à Google Assistant.
Va-t-on assister à la naissance du meilleur ennemi de Google Assistant ? OpenAI prépare une conférence ce lundi 13 mai, soit un jour avant la Google I/O 2024. Une manœuvre symbolique mine de rien pour tenter d’éclipser la grand-messe du géant de Mountain View. On a d’ailleurs quelques idées des plans de l’entreprise derrière ChatGPT pour cet événement. Il faudrait s’attendre à un assistant multimodal sophistiqué censé vous simplifier le quotidien.
On se demande donc forcément si la firme spécialiste de l’intelligence artificielle — et qui a le vent en poupe depuis le succès de ChatGPT — ne serait pas en train de concevoir un concurrent sérieux à Google Assistant.
Le fil de la conférence
Temps forts
19:34 Déjà terminé
La conférence était très courte, une demi-heure environ, et se termine déjà. On retiendra donc l’annonce de GPT-4o qui sublime les capacités de Chat-GPT sans que vous n’ayez à payer et c’est très chouette.
On retiendra aussi la grande capacité de ChatGPT à répondre très rapidement et avec un ton très humain lors des interactions vocales ainsi que son impressionnante capacité à comprendre ce que vous filmez en direct avec la caméra de votre smartphone. Les démonstrations étaient très impressionnantes et on de quoi faire peur à Google Assistant à la veille de la Google I/O 2024.
19:29 Détection des émotions
La démonstration se termine avec une petite présentation de la détection des émotions de ChatGPT. L’une des personnes sur scène s’est juste filmé avec la caméra selfie de son smartphone et l’IA lui a proposé une réponse assez complète pour dire qu’il semblait enjoué et enthousiaste tout en demandant ce qui provoquait chez lui ces émotions. L’idée est évidemment de montrer que les interactions avec ChatGPT sont très naturelles et très « humaines » pour une intelligence artificielle.
19:28 En mode avion ?
19:23 Une traduction plus fluide
On est vraiment sur un assistant qui se veut pertinent au quotidien. Les personnes sur scène utilisent désormais les capacités de traduction. Elles ont simplement demandé, à l’oral, à l’IA de traduire en anglais tout propos qu’elle entend en italien et vice-versa. Et l’IA s’est exécutée avec une excellente fluidité répétant même les petits rires ou hésitation des interlocuteurs.
19:22 Plusieurs interactions possibles
Grâce à ce traitement multimodal des informations, ChatGPT peut pointer du doigt des éléments perfectibles dans votre code (si vous êtes développeur par exemple) ou interpréter les éléments d’un graphique qui s’affiche sur l’écran de votre ordinateur.
19:17 Comprendre les équations pour vous aider
Sur scène, des porte-paroles d’OpenAI discute à l’oral avec ChatGPT tout en filmant une équation mathématique écrite sur une feuille. L’IA les aide ainsi à résoudre l’équation sans forcément leur donner la réponse directement afin qu’il apprenne à progresser. On imagine que l’entreprise prévoit ainsi des usages pour les étudiants.
Cette utilisation de la caméra fonctionne aussi avec du texte. Les représentants sur scène ont ainsi écrit un gentil message pour ChatGPT et l’IA a répondu avec un ton enjoué simulant très bien la manière dont un humain réagirait à un compliment.
19:14 Des interactions vocales plus bluffantes
OpenAI présente aussi de belles améliorations pour les interactions vocales avec ChatGPT. Ainsi, l’agent conversationnel répond beaucoup plus vite, peut-être interrompu (sans qu’il ne perde le fil de la conversation) et il réagit aussi quand vous vous comportez bizarrement. Ainsi, si vous respirez très fort près du micro, il vous invite à prendre une profonde inspiration pour vous détendre.
On peut aussi demander à ChatGPT de s’exprimer dans une grande variété d’intonations. L’outil peut donc vous raconter une histoire en chantant, avec un ton épique, avec une voix robotique, etc. La démonstration est vraiment impressionnante !
19:05 Plusieurs nouveautés au programme
GPT-4o est une évolution de GPT-4 à plusieurs titres. Dans ChatGPT, ce nouveau modèle va donner plus de possibilités, même aux utilisateurs gratuits (plus d’extensions, plus de mémoire, plus de rapidité, etc.).
19:04 GPT-4o
19:00 Ça commence !
Ce qu’on attend de la conférence OpenAI
On l’a dit, la star de la soirée sera probablement un agent conversationnel multimodal dopé à l’IA. Pour rappel, le terme multimodal signifie que cet outil serait capable d’interagir avec divers types de contenus : textuels, visuels, audio, etc.
L’agent conversationnel pourrait interpréter très rapidement ces divers éléments, mais aussi percevoir avec précision les subtilités du langage naturel comme l’intonation ou le sarcasme. Ce n’est pas tout : il se murmure aussi que cet outil pourrait passer des appels téléphoniques à votre place.
Bref, beaucoup de spéculations pour le moment, mais il y a de quoi être intrigué. OpenAI n’a pas l’habitude d’organiser ce genre de conférence en direct pour ses annonces. Un tel événement laisse entendre qu’il y aura des nouveautés importantes. Pour le moment, la firme s’est contentée d’évoquer des démonstrations de mises à jour de ChatGPT et du modèle de langage (LLM) GPT-4.
from Sciences et technologies - Dernières infos - Google Actualités https://ift.tt/x0cEX7W
via IFTTT
Aucun commentaire:
Enregistrer un commentaire