Figure 03が1時間に1台へ。フィジカルAIの焦点はデータ基盤へ移る

ヒューマノイドロボットのニュースは、動画だけで追うと見誤りやすい。

階段を上る。洗濯物を畳む。箱を運ぶ。映像は強い。フィジカルAIで見たいのは、1回できた動きより、失敗をどう集め、どう直し、どう全体へ戻すかだ。

2026年4月29日、Figureは Ramping Figure 03 Production を公開した。Figure 03の生産速度を1日1台から1時間1台へ引き上げ、第3世代ロボットを350台以上生産したという発表だ。

このニュースは、生産台数そのものより、ロボットを「学習データを生むfleet」として扱い始めた点が面白い。

目次

Figureが出した数字

Figureの発表に出てくる主な数字は次の通り。

項目発表値
Figure 03の生産速度1日1台から1時間1台
改善幅120日未満で24倍
生産済みFigure 03350台超
BotQのworkstation150台超
in-process inspection50点超
end-of-line first pass yield80%超、改善中
battery line first-pass yield99.3%
shipped battery packs500超
actuators9,000超、10 SKU超
sign-off前のfunctional verification80項目超

これはFigure自身の発表値だ。第三者が監査した稼働実績やタスク成功率とは分けて読む。

Figureは、量産、検査、fleet management、field service、OTA、Helixの学習を同じ発表の中でつないでいる。

fleet managementは、複数台のロボットの状態、場所、稼働時間、更新状態を管理する仕組みを指す。

OTAはover-the-air updateの略で、現場の機体へソフトウェア更新を配る仕組みだ。field serviceは現地保守を意味する。

ロボット企業がこの3つを語り始めると、話は研究デモから運用へ移る。

実機が増えると、珍しい失敗が見える

ロボットの学習は、現場で動かして初めて見える差に左右される。

床材、照明、摩耗、センサーのずれ、バッテリー残量、人間の動き、部品のばらつき、現場ごとの運用差。こうした要素は、綺麗なデモ環境では出にくい。

台数が少ないうちは、成功例が目立つ。台数が増えると、珍しい失敗が見えてくる。

Figureは今回、次の運用要素を挙げている。

  • robust diagnostics
  • fallback ladders
  • long-tail failures
  • field service management
  • fleet-wide upgrades
  • recall campaigns
  • OTA software update infrastructure

robust diagnosticsは、故障原因を短時間で絞る仕組みだ。

fallback ladderは、異常時に性能を段階的に落として安全側へ戻す設計を指す。long-tail failuresは、頻出する不具合を潰した後に残る、低頻度で現場では避けにくい失敗群だ。

この並びは、ロボットを製品として運用する会社の言葉になっている。

VLAサーベイと同じ問題を見ている

2026年4月24日に、VLAサーベイ Vision-Language-Action in Robotics: A Survey of Datasets, Benchmarks, and Data Engines が出た。

この論文は、ロボティクスAIのボトルネックをデータ基盤として整理している。

VLAはVision-Language-Actionの略だ。画像や映像、言語指示、ロボットの行動をつないで扱うモデル群を指す。たとえば「赤いカップを取って」と言われたとき、視覚で対象を見つけ、言語指示を理解し、ロボットの動作へ変換する。

このサーベイは、今後の進歩がdatasets、benchmarks、data enginesの設計に強く依存すると整理している。

datasetは学習に使うデータの集まり。benchmarkは性能を比べるための評価条件。data engineは、実機、シミュレーション、動画再構成、自動タスク生成などを使い、学習と評価に必要なデータを継続的に作る仕組みだ。

Figureの発表とVLAサーベイを合わせると、追う数字が変わる。

確認する項目理由
実機台数失敗データの母数になる
fleet hoursどれだけ現場で動いたかを確認する
失敗ログどの条件で失敗したかを確認する
人間の介入ログ自律性が切れた場所を確認する
OTA履歴修正を全台へ戻せるかを確認する
benchmark条件つきで進歩を比較する

「何ができたか」に加えて、「失敗をどの形で保存し、次の訓練や検査へ戻しているか」を確認する。

Helix S0はなぜ出てくるのか

Figureは今回、HelixのSystem 0にperception-conditioned whole-body controlを追加したと説明している。

perception-conditionedは、カメラなどで見た外界の情報を条件として使うという意味だ。whole-body controlは、腕や脚だけでなく身体全体の動きをまとめて制御することを指す。

以前のS0は、関節状態や姿勢など、自分の身体内部の情報であるproprioceptionを中心にしていた。

新しいS0では、head cameraのRGB画像をstereo modelで3D表現へ変換し、それをpolicyへ渡す。policyは、観測から次の行動を決める制御モデルだ。

Figureは、シミュレーション上のrandomized terrainsで強化学習し、同じnetwork weightsを実機へzero-shotで移したと主張している。

zero-shotは、その実機環境専用の追加学習なしに動かすという意味だ。

確認する質問は、動画の見栄えから一段深い。

  • どの地形で成功したか
  • どの地形で失敗したか
  • 照明や床材の違いにどこまで耐えるか
  • 人間オペレーターの介入はどれだけあるか
  • fallback ladderは安全に作動するか
  • 失敗データは次の訓練へ戻るか

この質問に答えられる会社ほど、ロボットを増やしたときに強くなる。台数が増えるほど、データが増える。データが増えるほど、失敗の修正が進む。その修正をOTAで全台へ戻す。このループが回ると、ロボットは個別の機械からfleetへ変わる。

日本の製造業なら何を確認するか

日本企業は、産業ロボット、現場保守、品質管理、量産技術に強い。フィジカルAIの時代でも、この強みは残る。

足りなくなりやすいのは、現場の失敗をAIの学習資産として扱う設計だ。

確認する問いは、ヒューマノイドを作るかどうかに限らない。

  • 設備やロボットの失敗を、センサー、行動、環境条件つきで保存しているか
  • 人間が介入した瞬間を、後から学習に使える形で残しているか
  • 品質検査のデータが、モデル改善や制御改善へつながっているか
  • OTAやfleet-wide updateで修正を戻せるか
  • シミュレーションで作った制御を、どの条件なら実機へ移せるか

フィジカルAIの競争は、モデル名の競争から、失敗を集めて直す運用基盤の競争へ移っていく。Figure 03の量産ニュースは、その変化を見るための材料になる。

次に見る数字

Figure 03の発表を「ヒューマノイドが量産された」というニュースで終わらせると、確認できない点が多い。

量産された実機がfleetになり、fleetが失敗データを生み、そのデータがHelixや制御系の改善へ戻るかを見る。VLAサーベイが指摘するデータ基盤の問題と、Figureが語るfleet運用は同じ方向を向いている。

フィジカルAIを追うなら、次に見る数字はfleet hours、失敗ログ、人間の介入率、OTA履歴、条件つきbenchmarkだ。

参考資料

目次