Z.ai debuts open source GLM-4.6V, a native tool-calling vision model for multimodal reasoning

## 要約

Z.aiは、新たにオープンソースの視覚と言語を統合したモデル「GLM-4.6V」シリーズを発表しました。このモデルは、マルチモーダル推論やフロントエンドの自動化、高効率なデプロイメントに最適化されています。シリーズには、1060億パラメータの「GLM-4.6V」と、90億パラメータの「GLM-4.6V-Flash」の2つのモデルが含まれており、それぞれクラウドおよびローカルアプリケーション向けに設計されています。

この発表は重要です。なぜなら、モデルのパラメータ数が多いほど高性能で多様なタスクをこなす能力が向上する一方で、少ないパラメータ数のモデルはリアルタイムアプリケーションでの効率を提供するからです。また、GLM-4.6Vシリーズでは、視覚入力に対して検索やクロッピングといったツールを直接使用できる「ネイティブ関数呼び出し」が導入されています。

読者が知っておくべきポイントとして、このモデルは128,000トークンのコンテキスト長を持ち、20以上のベンチマークで最先端の結果を出しています。さらに、MITライセンスのもとで配布されており、企業利用においても柔軟な統合が可能です。モデルの詳細やドキュメントはHugging Faceで公開されており、GitHubからコードも入手できます。

## 編集部コメント

AIの進化は私たちの働き方や創造性に新しい可能性をもたらしています。この動向がどのように発展していくか、引き続き注目していきましょう。

**元記事**: [https://venturebeat.com/ai/z-ai-debuts-open-source-glm-4-6v-a-native-tool-calling-vision-model-for](https://venturebeat.com/ai/z-ai-debuts-open-source-glm-4-6v-a-native-tool-calling-vision-model-for)

**公開日**: Tue, 09 Dec 2025 01:03:00 GMT

*この記事はAIアシスト編集により作成されています。*

📰 元記事: 元記事を読む

コメントする