5月13日、OpenAIは最新の主力AIモデルであるGPT-4oを発表しました。これはAI業界における重要な節目となります!

GPT-4oの「o」は「Omni」を表し、全てに対応できるシステムを示しています。GPT-5もしくはAI+検索、長らく期待されてきたものは今回の発表イベントのメイン焦点ではありませんでしたが、GPT-4oは人間と機械の相互作用の重要な進歩を表しています。
GPT-4を基にして、OpenAIはAIの低遅延処理能力を強化し、テキスト、音声、ビジュアルの入力に対応しました。この強化により、GPT-4はマルチモーダルな知覚を通じて、より効果的に人間のニーズを理解し応答することが可能になりました。
リアルタイムインタラクティブ
GPT-4oの発表イベントでのライブデモンストレーションでは、モデルが232ミリ秒以内で音声入力に応答する印象的な能力を示しました。
従来のモデルでは一時的な休止により対話が突然終了してしまうことがありましたが、GPT-4oは一時的な休止や思考の際、一般的な人間の対話パターンを理解し、より自然かつスムーズな対話が可能となりました。

リアルタイムビジョン
最近のイベントで、OpenAIのエンジニアであるブロックマンは、AIモデルが会話に参加するデモンストレーションを行いました。
彼はビジュアル能力を持たない古いバージョンのGPTを、カメラ対応の新しいバージョンと並べて、声での対話を可能にし、彼自身は一面から観察しました。
ビジュアル能力を活用して、カメラ対応のGPTモデルはスピーカーの後ろにある電球を正確に認識しました。さらに、自己認識も行い、会話相手を古いGPTバージョンと認識しました。この二つのモデルは自然で友好的な会話を行いました。

二人のAIが会話している最中、一人の女性がブロックマンの背後でこっそりと✌️サインを作りました。

その後、ブロックマンはGPT-4oにこの部屋で何かイベントが起きたか尋ねました。AIモデルはためらいなく、第二の人物の存在とその行動を説明しました。

確かに、人工知能(AI)のセキュリティシステムへの統合は概念的なアイデアから具体的な現実へと移り変わりました。
リアルタイム学習アシスタント
これは単純な人間の行動に関する質問に答えるだけでなく、より複雑な数学的およびグラフィカルな問題も対処することができます。
この機能は子供の勉強をサポートしている親にとっては非常に便利です。GPT-4は要求に応じて数学の問題を解く家庭教師の役割を果たすことができます!実際のところ、これは数百人の人々のためのリアルタイムでのライブデモンストレーションであり、編集されたショーケースではありません(そう、Google Geminiを見ているよ)。
OpenAIはまだ公開されていない多くの強力な機能を持っていると言っても過言ではありません。

ベンチマークテスト
リアルタイムデモンストレーションは既に非常に印象的であり、ペーパーベースのベンチマークスコアに基づくと、GPT-4oは他のモデルを一貫して上回っています。
テキスト評価テストでは、GPT-4oはClaude 3 OpusやGoogle Gemini Pro 1.5、さらにはメタの「GPT-4のオープンソースバージョン」と言われるLlama 3 400Bを含む多くのモデルよりも優れた性能を発揮しました。

モデルのビジュアル理解能力の評価では、GPT-4oはさまざまな指標で競合他社を大きく上回る優れたパフォーマンスを発揮しました。
OpenAIは、人工知能の分野での主導的な勢力としての地位を確固たるものにしました。

強化された機能に追加料金は不要
ほぼすべての製品発表イベントで、OpenAIは価格の引き下げを発表しており、今回の場合も例外ではありません。
GPT-4oおよび有料のChatGPT Plusサブスクリプションに含まれているすべてのサービス(ビジュアル機能、インターネットアクセス、GPT Storeなど)は、近い将来、100万人以上の登録ユーザーすべてに追加費用なしで提供されます。
OpenAIは面白いコメントをしており、GPT-4の料金を請求することは彼らの意図ではなかったと述べています。ただし、リソースの制約によって制約されていることを示唆しています。
APIの価格設定に関しては、同社はGPT技術を利用したモデルのコストを削減しました。

現時点では、無料会員はGPT-4oモデルを体験することはできません。
今すぐ無制限にGPT-4oを使う方法は?
あなたの熱意を理解しているので、最新のGPT-4oを無料でお試しいただく方法を提供します!
URLをクリックし、左下のモデルを切り替えてください。

対話を開始するには、テキストボックスにメッセージを入力するだけです。また、チャットウィンドウの左側にある画像ボタンをクリックして、AIに認識させるための画像をアップロードすることもできます。
この機能により、アップロードした画像の内容を中心に対話を行うことができます。

月額20ドルを支払う必要はありません。Anakin.aiのすべてのユーザーは、毎日30クレジットを無料で獲得し、GPT-4oとチャットすることができます!会話の制限はありません!