当メディアのリンクにはアフィリエイト広告が含まれています

OpenAI、フラグシップモデル「GPT-4o」を発表。人間並みのスピードで音声入力情報に反応できる

末にある「o」は「Omni」の頭文字。音声・視覚・テキストをすべてリアルタイムで処理

OpenAIは5月14日、ChatGPTの新しいフラグシップモデル「GPT-4o」を発表した。末にある「o」は「Omni」の頭文字だという。

GPT-4oは音声、視覚、テキストの各種入力情報に対応しており、それぞれの形で出力できる。音声入力は232ミリ秒で、平均で320ミリ秒で反応できる。これは人間が会話における反応速度と同程度。英語とコードのパフォーマンスはGPT-4 Turboと同等で、英語以外の言語も高速化を実現している。

GPT-4oは順次展開される予定。テキストと画像の機能は本日よりすべてのユーザーに提供される。音声モードのアルファ版は今後数週間以内にChatGPT Plusユーザー向けに提供する。

もっと読む

12本の記事を表示する
特集
関連キーワード
公開情報
更新日2024年05月17日
執筆者g.O.R.i
コメント(0件)

コメントは承認後に表示されます。良識のあるコメントを心がけ、攻撃的な表現や他人が傷つく発言は避けましょう。なお、コメント投稿時に「利用規約」に同意したとみなします。

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

「テック&ウェブ」新着記事
トレンド検索