ライブデモ

それでは、gpt4 omniのマルチモーダル機能と高度な言語理解について、ライブデモをご覧ください。

GPT-4oをご紹介します。GPT-4oは、テキスト、音声、ビデオをリアルタイムで推論することができます。

音声、画像、テキストをリアルタイムで推論できる新しいフラッグシップモデル、GPT-4oにご期待ください。http://openai.com/index/hello-gpt-4o/。テキストと画像の入力は、APIとChatGPTで今日から開始され、音声とビデオは数週間後に開始されます。

生徒がiPadの画面を新しいChatGPT + GPT-4oと共有すると、AIが生徒と会話し、リアルタイムで学習を支援します。これを世界中のすべての生徒に提供することを想像してみてほしい。