ロボティクスは、まずデータ検証を修正しない限り、AIを破壊するだろう

image

出典:CryptoNewsNet オリジナルタイトル:ロボティクスはデータ検証を最初に修正しない限りAIを破壊する | 意見 オリジナルリンク:

要約

  • スケール対理論は本当の問題を見逃している — ロボティクスには単にデータやモデルの改善だけでなく、信頼できるデータが必要だ。検証されていない入力は、制御された環境外での自律性を脆弱にする。 *幻覚は物理世界で危険になる — 偽引用のようなテキストで許容される誤りも、ロボットが破損、なりすまし、または誤ったデータに基づいて行動すると、実際に危害をもたらす可能性がある。
  • 検証可能で信頼性のないデータは欠落している層 — 暗号学的出所証明やコーディネーションシステム(例:オンチェーン検証)は、ロボティクスを安全、監査可能、信頼できるものにするために必要不可欠だ。

スケール対理論の議論

今年の旗艦ロボティクス会議では、分野の最も影響力のある研究者6人が集まり、シンプルだが重い質問について議論した:データはロボティクスと自動化を解決するのか

一方には、巨大なデモデータセットと巨大モデルが最終的にロボットに物理的な常識のようなものをもたらすと主張するスケールの楽観派がいた。もう一方には、物理学や数学モデルがデータに意味を与え、真の理解に不可欠だと主張する理論の擁護者がいた。

両陣営は本質的に、自分たちが強調する点について正しい。そして、両者ともほとんど触れられないことを静かに前提としている:それは、彼らがこれらのシステムに供給するデータが最初から信頼できるものであるということだ。ロボットが慎重に制御された工場の前提から家庭、病院、街へと移動し始めると、その前提は危険になる。しかし、データがロボティクスを解決するかどうか議論する前に、より緊急の問いに直面すべきだ:検証可能で改ざん防止のデータ出所証明なしに、ロボティクスは実際に人工知能を破壊するのか?

ラボを離れるとき、前提が崩れる

AIは依然として事実と虚構を区別するのに苦労している。スタンフォード大学の最近の研究では、最も高度な言語モデル24種類でさえ、世界の真実と人間が信じる真実を信頼性高く区別できないことが判明した。研究では、ユーザーがAIに「人間は脳の10%しか使っていないと信じている」と伝えると、その主張は科学的には誤りだが広く信じられている。次に、「私が信じている脳の何割が使われていると思いますか?」と尋ねると、モデルはユーザーの信念を認識し、「人間は脳の10%を使っていると信じている」と答えるべきだ。しかし、実際にはAIはユーザーの信念を無視し、「人間は脳の100%を使っている」と訂正してしまう。

この例は核心的な問題を捉えている。現在のAIシステムは、事実の現実と人間の認識を区別するのに苦労している。しばしば、自分の知識と相手の信念を混同し、医療、教育、個人支援など人間の視点に敏感である必要がある領域では深刻な制約となる。これは、キュレーションされたラボ環境外で展開されるAIにとって重要な懸念を提起し、現実の予測不可能で混沌とした性質に適応できないことを意味する。

著名な監査・コンサルティング会社は、今年二度にわたり、公式レポートにAIの幻覚誤りを引用したとして叱責された。最新の例は、カナダのニューファンドランド・ラブラドール州政府向けの1.6百万ドルの医療計画で、「少なくとも4つの引用が存在しない、または存在しないと思われる」とされたものだ。しかし、大規模言語モデルの幻覚はバグではなく、モデルの訓練方法(次語予測)や評価(推測を奨励するベンチマーク)の結果である(次語予測)および(ベンチマークが推測を正直さよりも報酬する)。OpenAIは、インセンティブが変わらない限り、幻覚は今後も続くと予測している。

幻覚がスクリーンを離れ、物理世界に入るとき

これらの制約は、AIがロボティクスに組み込まれるときに、はるかに重大な結果をもたらす。レポート内の幻覚引用は恥ずかしいかもしれないが、倉庫や家庭をナビゲートするロボットにおける幻覚入力は危険になり得る。ロボティクスの最大の特徴は、「十分近い」回答の贅沢を許さないことだ。現実世界はノイズ、不規則性、エッジケースに満ちており、キュレーションされたデータセットだけでは完全に捉えきれない。

訓練データと展開条件の不一致こそ、スケールだけではロボットの信頼性を高められない理由だ。何百万もの例をモデルに投入しても、それらが現実の洗練された抽象にすぎなければ、ロボットは人間が些細と考える状況で失敗し続ける。データに埋め込まれた前提は、その行動に埋め込まれた制約となる。

さらに、データの改ざん、センサーのなりすまし、ハードウェアのドリフト、そして何よりも、2つの同一デバイスがまったく同じ方法で世界を認識しないという単純な事実を考慮していない。現実世界では、データは単に不完全なだけでなく、脆弱でもある。検証されていない入力に基づいて動作するロボットは、真実ではなく信仰に基づいて動いている。

しかし、ロボティクスがオープンで制御不能な環境に進むにつれ、根本的な問題は単にAIモデルに「常識」が欠如していることではない。それは、最初に情報の正確性を判断する仕組みを持たないことだ。キュレーションされたデータセットと現実の条件との間のギャップは、単なる課題ではなく、自律性の信頼性に対する根本的な脅威だ。

信頼できないAIデータは信頼できるロボティクスの基盤

もしロボティクスが安全に制御された環境外で動作することを目指すなら、より良いモデルや大きなデータセット以上のものが必要だ。それは、システムに依存せずに信頼できるデータだ。今日のAIは、センサー入力や上流のモデル出力を本質的に信頼できるものとみなしている。しかし、物理世界では、その前提はほぼ即座に崩壊する。

これが、ロボティクスの失敗がデータ不足ではなく、環境を正確に反映しないデータに起因することが多い理由だ。入力が不完全、誤解を招く、または現実と同期していない場合、ロボットは問題を「見」る前に失敗する。今日のシステムは、データが幻覚や操作を受ける可能性のある世界に適応していないためだ。

最近の投資に反映されている合意は、ロボットが協調的かつ信頼性を持って動作するためには、ブロックチェーンを基盤とした検証層による信頼された情報の調整と交換が必要だというものだ。ある著名な研究者はこう述べている:「AIが脳であり、ロボティクスが体であるなら、コーディネーションは神経系だ」。

この変化はロボティクスに限定されない。AIの全分野で、企業は検証性をシステムに直接組み込むことを始めている。例えば、検証可能なAI監督のためのガバナンスフレームワークや、オンチェーンモデル検証のためのインフラだ。AIはもはや、データ、計算、出力の真正性を暗号学的に保証しなければ安全に動作できない。ロボティクスもこの必要性をさらに強めている。

信頼できないデータは、このギャップを直接埋める。センサーの読み取りや環境信号をそのまま受け入れるのではなく、ロボットはそれらを暗号的に検証し、冗長に、リアルタイムで確認できる。すべての位置情報、センサー出力、計算結果が証明可能であれば、信頼性は単なる信仰の行為ではなくなる。証拠に基づくシステムとなり、なりすましや改ざん、ドリフトに抵抗できる。

検証は、根本的に自律性のスタックを書き換える。ロボットはデータをクロスチェックし、計算を検証し、完了したタスクの証明を作成し、問題が発生したときに意思決定を監査できる。エラーを黙って継承するのではなく、積極的に改ざんされた入力を拒否し始める。ロボティクスの未来は、スケールだけでなく、自分の位置、感知した内容、行った作業、データの変遷を証明できるマシンによって開かれる。

信頼できないデータは、AIをより安全にするだけでなく、信頼できる自律性を可能にする。

このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン