## 要約
中国のAIスタートアップZhipu AIが、マルチモーダル推論向けに最適化された新しいオープンソースの視覚言語モデル「GLM-4.6Vシリーズ」を発表しました。このシリーズには、1060億パラメータを持つ「GLM-4.6V」と、90億パラメータの「GLM-4.6V-Flash」の2つのモデルが含まれています。大規模な推論向けのGLM-4.6Vは、リソース制約のあるリアルタイムアプリケーションに適した小型モデルを提供することで、効率性とパフォーマンスを両立させています。
このモデルの革新点は、視覚入力を用いたツールのネイティブ関数呼び出しの導入です。これにより、検索やクロッピング、チャート認識などの機能を直接利用できるようになります。また、GLM-4.6Vシリーズは、128,000トークンのコンテキスト長を持ち、20以上のベンチマークで最先端の成果を達成しています。
このモデルはMITライセンスの下で提供されており、商業利用や非商業利用、改変、再配布が自由に行えます。これにより、企業がインフラの完全なコントロールを持つことができ、内部ガバナンスやエアギャップ環境にも適応可能です。Hugging FaceやGitHubでモデルの重みやドキュメントが公開されており、ユーザーは簡単にアクセス可能です。
—
## 編集部コメント
AIの進化は私たちの働き方や創造性に新しい可能性をもたらしています。この動向がどのように発展していくか、引き続き注目していきましょう。
—
**元記事**: [https://venturebeat.com/ai/z-ai-debuts-open-source-glm-4-6v-a-native-tool-calling-vision-model-for](https://venturebeat.com/ai/z-ai-debuts-open-source-glm-4-6v-a-native-tool-calling-vision-model-for)
**公開日**: Tue, 09 Dec 2025 01:03:00 GMT
—
*この記事はAIアシスト編集により作成されています。*
📰 元記事: 元記事を読む