Together AIは2026年5月8日(現地時間)、HuggingFace上の機械学習モデルのデプロイと推論を迅速化する新手法を発表した。CLIエージェントランナー「Goose」と「Dedicated Container Inference」を組み合わせることで、開発者はモデルのセットアップ時間を大幅に短縮し、公開当日に本番環境での運用が可能になる。Netflixの「void-model」を事例に、専門知識を要したコンテナ化や環境設定の簡素化が期待される具体的な利用手順が示された。

このアプローチは、モデルコンテナ化、推論サーバー設定、モデル固有の環境設定といった、これまで専門知識や時間を要したタスクを簡素化するものです。エージェントが開発者の意図を解釈し、必要な知識ギャップを埋めることで、モデルへのアクセスを容易にします。

Together AIのブレイン・カステン (Blaine Kasten) 氏によると、GooseとTogether AIのDedicated Container Inferenceのスキルを連携させることで、Netflixのvoid-modelがHuggingFaceで公開された同日中に、実行可能なコンテナ環境を準備できたと説明しています。この設定は3つのステップで完了します。まず、Gooseにtogether-dedicated-containersスキルをインストールします。次に、GooseセッションでI want to deploy this model on togethers dedicated containers https://huggingface.co/netflix/void-modelという一つのプロンプトを実行します。

GooseはHuggingFaceからモデルの詳細を取得し、モデルアーキテクチャに適した推論サーバー設定とコンテナ設定ファイルを生成します。これにより、開発者は手動での設定作業なしに、完全な実行環境を得られます。デプロイ後、開発者はTogether CLIを用いて推論を実行できます。void-modelの例では、動画からオブジェクトとその相互作用を削除する機能について、非同期推論のペイロード例が提示されました。


参考: Together AI Blog — 2026年5月8日 09:00 (JST)

原文ハイライト

"together-dedicated-containers skill"

この記事をシェア
X はてブ LinkedIn