DeepSeekマルチモーダル技術レポート:モデルに「指で指して考える」ことを教える、迷路ナビゲーションが超GPT-5.4に近い17ポイント向上

robot
概要作成中

币界網消息、DeepSeekはマルチモーダル推論技術レポート「thinking with visual primitives」を発表し、新しい推論パラダイムを提案した:モデルが思考する際、人が指で何かを指すように、座標を直接思考チェーンに挿入し、関与するすべての視覚オブジェクトを特定する。このプロジェクトはGitHubでオープンソース化され、MITライセンスを採用している。現在のマルチモーダルモデルの核心的な課題は「指示のギャップ」であり、モデルは画像を正確に認識できるが、推論時には自然言語で視覚オブジェクトを記述するだけで、複雑なシーンでは位置特定が困難である。DeepSeekは、境界ボックスと点座標を推論の最小単位に変換することで、この問題を解決した。モデルはv4-flashアーキテクチャに基づき、視覚トークンの圧縮を極端に行い、複数のベンチマークテストで優れた性能を示し、特にトポロジー推論や迷路ナビゲーションタスクで他のモデルを大きくリードしている。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし