EMO: 事前学習でモジュール性が創発するMoEモデル発表
Allen Institute for AIは2026年5月8日(現地時間)、人間が定義した事前知識に頼らず、データから直接モジュール構造が創発するよう事前学習された新しい専門家混合 (MoE) モデル「EMO」を公開した。EMOは、特定のタスクにおいて総専門家のわずか12.5%を使用するだけでほぼフルモデルの性能を維持できる。同時に、全専門家を使用する際には強力な汎用モデルとしても機能する。
Tag
2 件の関連記事
Allen Institute for AIは2026年5月8日(現地時間)、人間が定義した事前知識に頼らず、データから直接モジュール構造が創発するよう事前学習された新しい専門家混合 (MoE) モデル「EMO」を公開した。EMOは、特定のタスクにおいて総専門家のわずか12.5%を使用するだけでほぼフルモデルの性能を維持できる。同時に、全専門家を使用する際には強力な汎用モデルとしても機能する。
Together AIは2026年5月8日(現地時間)、HuggingFace上の機械学習モデルのデプロイと推論を迅速化する新手法を発表した。CLIエージェントランナー「Goose」と「Dedicated Container Inference」を組み合わせることで、開発者はモデルのセットアップ時間を大幅に短縮し、公開当日に本番環境での運用が可能になる。Netflixの「void-model」を事例に、専門知識を要したコンテナ化や環境設定の簡素化が期待される具体的な利用手順が示された。