## 要約
Nvidiaは、ロボットや自律走行車が現実世界を認識し、相互作用するための基盤技術を構築する一環として、新しいAIモデル「Alpamayo-R1」を発表しました。このモデルは、自律走行研究に特化した初の視覚言語アクションモデルであり、テキストと画像を同時に処理できることで、車両が周囲を「見る」能力を強化します。Nvidiaはこの技術が、定義されたエリア内での完全自動運転(レベル4)を目指す企業にとって重要であると述べています。
この発表は、Nvidiaが物理AIに注力している背景にあり、創業者のジェンスン・フアン氏は、次のAIの波が物理AIであると強調しています。新しいモデルはGitHubとHugging Faceで公開されており、開発者向けのトレーニングリソースやガイドも提供されています。これにより、データの管理や生成、モデルの評価が容易になります。
読者が知っておくべきポイントは、Nvidiaの新モデルが自律走行技術の進化に寄与し、AIの新たな可能性を開くものであることです。また、物理AIの進展がロボティクスにおいて重要な役割を果たすとされている点も注目に値します。
—
## 編集部コメント
AIの進化は私たちの働き方や創造性に新しい可能性をもたらしています。この動向がどのように発展していくか、引き続き注目していきましょう。
—
**元記事**: [https://techcrunch.com/2025/12/01/nvidia-announces-new-open-ai-models-and-tools-for-autonomous-driving-research/](https://techcrunch.com/2025/12/01/nvidia-announces-new-open-ai-models-and-tools-for-autonomous-driving-research/)
**公開日**: Mon, 01 Dec 2025 21:00:22 +0000
—
*この記事はAIアシスト編集により作成されています。*
📰 元記事: 元記事を読む