Google DeepMindの最高経営責任者(CEO)であるデミス・ハサビス氏が先日、既存のAIシステムを極限まで大規模化する「規模の法則」が、汎用人工知能(AGI)実現の核心的な道筋となる可能性について言及しました。この発言は、シリコンバレーのテクノロジー業界で長く議論されている「規模の法則」の応用範囲に関する議論に、再び火をつける形となりました。最新のGemini 3モデルを発表し、業界から高い評価を得ているAI分野のリーダーであるハサビス氏の言葉は、その重みをもって受け止められています。
AGIへの道:DeepMind CEOが語る「規模の法則」の重要性
デミス・ハサビス氏は、先週の学術交流の中で、「現在のAI開発における規模の拡大プロセスは、まだその限界に達していません。この技術は、最終的にAGIシステムそのものを構築するか、その重要な構成要素となる可能性があります」と述べました。
「規模の法則」とは何か?
ここで言う「汎用人工知能(AGI)」とは、人間レベルの認知能力を持ち、人間が実行できるあらゆる種類のタスクを理解し、学習し、完遂できる知能システムを指します。現在、世界のトップテクノロジー企業が多大なリソースを投入して研究開発を進めていますが、この技術は未だ理論的な段階に留まっています。
現在の大規模モデル開発を支える「規模の法則」とは、モデルのパラメータ数、訓練データ量、計算リソースの投入量という3つの要素間に存在する定量的な関係を示すものです。一般的には「パラメータの規模が大きく、訓練データが豊富で、計算時間が長ければ長いほど、モデルの性能は向上する」という法則として理解されています。
単純な規模拡大だけでは不十分?ハサビス氏の慎重な見方
ハサビス氏は、この技術的アプローチについて説明する一方で、慎重な姿勢も崩していません。彼は、単純な規模拡大だけがAIをAGIへと進化させる可能性を認めつつも、「真のブレークスルーを実現するには、おそらくあと1〜2つの重要な技術革新が必要になるでしょう」と指摘しています。
この見解は、一部の業界専門家の懸念と共鳴しています。公開データリソースが徐々に枯渇する中で、モデルの規模を拡大し続けることは、データ獲得のボトルネックに直面する可能性があります。また、超大規模なデータセンターを構築することに伴うエネルギー消費と環境への影響、そして訓練コストの指数関数的な上昇も大きな課題となっています。ある研究機関の試算では、現在の最先端大規模モデルの訓練には、数百世帯の年間電力消費量に相当するエネルギーが必要とされています。
別のアプローチ:Yann LeCun氏が提唱する「世界モデル」
シリコンバレーのもう一方では、元MetaのチーフAIサイエンティストであるヤン・ルカン氏が、「規模の法則」の普遍性に公然と疑問を投げかけています。
データと計算力だけでは限界?LeCun氏の批判
ルカン氏は今年4月にシンガポール国立大学で行われた講演で、「数多くの真に挑戦的な知能問題は、単純にデータと計算力を積み重ねるだけでは解決できません」と断言しました。彼は人間の認知メカニズムを例に挙げ、視覚的知覚や物理的推論といった能力は、特定の認知アーキテクチャによって支えられる必要があり、単純なデータスケールに依存するものではないと強調しています。
この考え方は、彼が現在開発を進めている「世界モデル」プロジェクトと密接に関連しています。このシステムは、三次元空間データモデルを構築することで、人間が物理世界を理解する方法を模倣しようとするもので、大規模言語モデルとは異なる技術的な道筋を築いています。
Metaを離れ、新たな挑戦へ
関係者筋によると、ルカン氏はMetaを退職後、新たな企業を設立し、テキストデータに依存しない空間知能システムの開発に注力しているとのことです。この技術経路がブレークスルーを達成すれば、AGIの研究開発に全く新しい方向性をもたらす可能性があります。
AGI開発の共通課題と今後の展望
現在、テクノロジー業界では、「規模拡大派」であろうと「アーキテクチャ革新派」であろうと、どちらの技術路線もデータ品質、エネルギー消費、計算能力のボトルネックといった共通の課題に直面しているという認識が広まっています。既存の技術フレームワークの中でいかに質的な変化を実現するか、あるいはパラダイムシフトとなるような画期的なブレークスルーによって物理的な制約を打破できるかどうかが、AGI開発の進展を左右する重要な要因となるでしょう。
元記事: pcd
Photo by Pavel Danilyuk on Pexels












