Démonstration en direct

Regardons quelques démonstrations en direct de ce que le GPT4 omni peut faire grâce à ses capacités multimodales et à sa compréhension avancée de la langue.

Voici GPT-4o, notre nouveau modèle capable de raisonner sur du texte, de l'audio et de la vidéo en temps réel. Ilest extrêmement polyvalent, amusant à utiliser et constitue une étape vers une forme beaucoup plus naturelle d'interaction homme-ordinateur (et même d'interaction homme-ordinateur-ordinateur).

Dites bonjour au GPT-4o, notre nouveau modèle phare capable de raisonner sur l'audio, la vision et le texte en temps réel : http://openai.com/index/hello-gpt-4o/. La saisie de texte et d'images est lancée aujourd'hui dans l'API et le ChatGPT, tandis que la voix et la vidéo le seront dans les semaines à venir.

Un élève partage l'écran de son iPad avec le nouveau ChatGPT + GPT-4o, et l'IA parle avec lui et l'aide à apprendre en temps réel. Imaginez que tous les élèves du monde puissent bénéficier de ce service... L'avenir est si, si brillant.