‍‍‍‍‍‍
Logo Afffect Media - l'actualité du marketing et de la publicité.
Marketing

Open Ai déploie le nouveau modèle d'IA GPT-4o et c'est bluffant

Dans une démonstration live bluffante, OPEN AI a dévoilé GPT4o et le moins que l'on puisse dire c'est que ses nouvelles capacités sont impressionnantes.

OpenAI a lancé son dernier modèle d'IA, GPT-4o, lors de l'événement « Spring Update ». GPT-4o, avec un petit « o » pour omni. Et ses nouvelles capacités sont impressionnantes.

GPT-4o, l’agent conversationnel d’Open AI, est capable de « raisonner sur l’audio, la vision et le texte en temps réel. » Le modèle mis à jour « est beaucoup plus rapide » et améliore « les capacités en matière de texte, de vision et d’audio », a déclaré Mira Murati, directrice technique d’OpenAI.

GPT 4o : un nouveau modèle multimodal

Sam Altman, PDG d'OpenAI, a indiqué que le modèle est « nativement multimodal », ce qui signifie qu'il peut générer du contenu ou comprendre des commandes vocales, textuelles ou images. Si les utilisateurs peuvent d'ores et déjà utiliser les fonctionnalités de recherche texte et Web de ce modèle avancé, les fonctionnalités vocales et vidéo seront quant à elles introduites au cours des prochaines semaines. Dans un premier temps, sur les comptes ChatGPT Plus et ChatGPT Team. Pour accéder à GPT-4o, il suffit simplement d’avoir un compte OpenAI. Une fois connecté, dans le menu déroulant supérieur, vous pouvez consulter la liste des modèles accessibles, notamment GPT-4o, GPT-4 et GPT-3.5. Si GPT-4o n’apparaît pas sur votre écran, c’est que vous n’y avez pas encore accès. Bien que le nouveau modèle soit gratuit pour tous les utilisateurs, les clients payants bénéficieront d'une limite de messagerie plus élevée que les utilisateurs gratuits.

_____________________________________________________________

Restez informés des dernières actualités marketing en vous inscrivant à notre newsletter

_________________________________________________________________

Capacités de réponse et d’analyse améliorées

Parmi les nouvelles fonctionnalités présentées, la nouvelle version du mode vocal (Voice Mode) a particulièrement retenu l’attention.  Pourquoi ? Parce qu'elle permet de reproduire de façon impressionnante des discussions entre humains. Si dans l’ancienne version le mode vocal pouvait répondre à une invite à la fois et travailler uniquement à partir de ce qu’il pouvait entendre, la nouvelle version pourra désormais agir comme un assistant vocal en répondant en temps réel en observant son environnement.

Dans une démonstration live bluffante, ChatGPT a pu montrer l’étendue de ses nouvelles capacités : lecture des émotions, empathie, traduction, résolution d’équation… Le nouveau GPT-4o a ainsi démontré des améliorations substantielles dans ses réponses par rapport à son prédécesseur. Une amélioration notable est constatée dans la résolution d’équations mathématiques où les réponses sont désormais présentées dans un meilleur format sans avoir à effectuer plusieurs étapes à la fois. Parmi les autres améliorations notables : la capacité du modèle à rechercher sur le Web les informations les plus récentes, en fournissant des citations pour chaque résultat de recherche sur le Web. Les utilisateurs peuvent également télécharger des fichiers pour analyser et poser au modèle des questions sur le contenu.

Enfin, autre changement annoncé et non des moindres : l’accès aux modèles. Suite au « Spring Update » Sam Altam a reconnu dans un article de blog que la vision initiale de l’entreprise avait changé. Longtemps critiqué pour ne pas avoir ouvert ses modèles d'IA avancés, ils seront désormais mis à disposition des développeurs via des API payantes.

Lire davantage d'articles

Recevez Le Feuillet
Votre Newsletter marketing hebdo, pour ne manquer aucune actualité.
Il y a une erreur..