中国のテクノロジー大手Xiaomi(シャオミ)が、次世代のMoE(Mixture-of-Experts)アーキテクチャを採用した大規模言語モデル「MiMo-V2-Flash」を正式に発表し、同時にオープンソース化しました。総パラメータ数3090億、アクティブパラメータ数150億という巨大な規模を誇るこのモデルは、推論、コーディング、スマートエージェントといった多岐にわたる分野で目覚ましい性能を発揮しています。深層思考とリアルタイム応答を自由に切り替えられる「ハイブリッド思考モード」や、ワンクリックでHTMLページを生成する画期的な機能も搭載されており、AI開発の新たな地平を切り拓く可能性を秘めています。
製品の概要と注目ポイント
Xiaomiが今回発表した「MiMo-V2-Flash」は、MoE(Mixture-of-Experts)アーキテクチャに基づく最新世代の大規模言語モデルです。その総パラメータ規模は3090億に達し、実際に動作するアクティブパラメータ数も150億と、非常に大規模なモデルとなっています。
このモデルの最大の特徴は、推論能力、コーディング支援、そしてスマートエージェントとしての応用シーンにおいて、既存の多くのモデルを凌駕する優れたパフォーマンスを発揮する点です。特に注目すべきは、ユーザーが「深層思考モード」と「リアルタイム応答モード」を自由に切り替えられるハイブリッド思考モードをサポートしていること。これにより、複雑な問題にはじっくりと深く思考させ、迅速な回答が求められる場面では瞬時に対応させることが可能になります。
さらに、ウェブ開発者にとって非常に魅力的な機能として、ワンクリックで完全なHTMLページを生成する能力を備えています。これはClaude CodeやCursorといった主要なコーディングフレームワークともシームレスに連携し、開発効率を飛躍的に向上させることが期待されます。
驚異的なパフォーマンス
性能テストにおいて、「MiMo-V2-Flash」はDeepSeek-V3.2と直接的な競合関係にあり、その実力はベンチマークデータでも明らかです。数学コンテストAIME 2025や科学知識テストGPQA-Diamondでは、オープンソースモデルの中でトップ2にランクイン。ソフトウェアエンジニアリング能力を測るSWE検証や多言語テストでは、全てのオープンソース競合モデルを上回り、グローバルなトップクラスのクローズドソースモデルと同等の性能を示しています。
特に長文コンテキスト処理においてその真価を発揮し、K2 Thinkingモデルをも超えるパフォーマンスを見せています。SWE-Bench Verifiedテストでは、解決率が驚異の71.7%に達し、BrowseComp検索評価では初期の45.4点から、コンテキスト管理を組み合わせることで58.3点まで向上するという結果を出しています。
革新的な技術的特徴
MiMo-V2-Flashの優れた性能を支えるのは、その先進的な技術アーキテクチャです。このモデルは、グローバルアテンション(GA)とスライディングウィンドウアテンション(SWA)を1:5の比率で組み合わせたハイブリッド構造を採用しています。これにより、線形アテンションの計算効率を保ちつつ、長文テキスト処理能力を飛躍的に向上させています。
また、新たに導入されたMTP(多トークン予測)トレーニング技術により、複数の候補トークンを同時に生成し並行して検証することで、デコードスループットを従来の2〜2.6倍に向上させることに成功しました。これにより、より高速な応答が可能となっています。
さらに、後トレーニング段階ではMOPD(多メンターオンラインポリシー蒸留)という手法が採用されています。これは、従来の方式と比較してわずか1/50の計算リソースで同等の最適化効果を達成し、「教育-学習」のクローズドループ反復メカニズムを確立している点が特筆されます。
多様な実用例と将来性
実用シーンでのテストでは、MiMo-V2-Flashの多様な能力が確認されています。ウェブページ開発タスクでは、商品カルーセルや仕様選択機能を備えたECサイトのページ、さらにはジェスチャーインタラクションに対応した3Dクリスマスツリーアプリケーションなども生成可能です。クリエイティブ生成の分野では、憂鬱な恋愛物語や非架空の社会観察作品の創作に利用できます。スマートエージェントとしてのインタラクションテストでは、「不老不死の薬を飲むべきか?」といった哲学的な問いに答えたり、SFサスペンスの脚本を執筆したりする能力も示しています。
ただし、実践的な検証では、教育系太陽系探査機のような一部の複雑なインタラクションシナリオでは、安定性に課題が見られ、期待通りの結果を得るには複数回の生成が必要となる場合があることも指摘されています。
MiMo-V2-Flashは完全にオープンソース化されており、推論コードはSGLang開発者コミュニティに貢献されています。APIサービスも期間限定で無料体験が可能です。技術文書によると、Prefill(事前処理)の単一マシンでのスループットは50000トークン/秒、16Kコンテキスト長でのデコードスループットは5000~15000トークン/秒を達成しています。価格戦略も非常に競争力が高く、入力トークンは0.7元/100万、出力トークンは2.1元/100万と、業界平均を大幅に下回る水準で提供されます。
まとめ:XiaomiのAI戦略と日本への影響
今回の発表は、Xiaomiの大規模モデル研究開発が急速な進展を遂げていることを示しています。同社は最近、AIと現実世界との深い結合を今後10年間の核心戦略に掲げ、AI事業への投資は4四半期連続で50%以上の成長を記録しています。技術革新を加速させるため、Xiaomiはグローバル人材募集計画も同時に開始しており、数千万元レベル(日本円で数億円相当)の年俸で大規模モデル分野のトップ人材を積極的に誘致しています。
直近3ヶ月間で、Xiaomiの技術チームは複数の学術論文を発表し、複数の事前学習モデルを次々とオープンソース化しており、強固な技術エコシステムを構築しつつあります。
「MiMo-V2-Flash」のオープンソース化と高性能、そして低価格での提供は、日本のAI開発コミュニティにとっても大きな意味を持つでしょう。特に、高性能なAIモデルを自社で利用したい企業や研究機関にとって、オープンソースであることは大きな利点です。また、ウェブ開発支援機能は、日本のウェブ制作現場に新たな効率化の波をもたらすかもしれません。XiaomiのAI戦略の加速は、グローバルなAI競争において新たなプレイヤーの台頭を印象づけるものであり、今後の動向が注目されます。
元記事: pcd
Photo by Sanket Mishra on Pexels












