AI Edgeline
最新VCベンダー論文音声規制About
キーワードを入力
    最新VCベンダー論文音声規制About
    キーワードを入力
      最新
      ベンダー・製品 EMO: 事前学習でモジュール性が創発するMoEモデル発表 ポッドキャスト・動画 OpenAI、リアルタイム音声APIで新モデル GPT-Realtime-2、-Translate、-Whisperを展開 リサーチ・論文 拡散言語モデルの透かし、多段階書き換えで検出率急落 論文で5回後4.86%に

      Tag

      #ZAYA1-8B

      1 件の関連記事

      リサーチ・論文 · 5月8日 21:13

      Zyphra、80億パラメーターMoEモデル「ZAYA1-8B」を発表 推論能力を強化

      Zyphraは2026年5月7日(現地時間)、推論に特化した混合エキスパートモデル (MoE)「ZAYA1-8B」の技術レポートを発表した。同モデルは7億のアクティブパラメーターと80億の総パラメーターで構成され、ZyphraのMoE++アーキテクチャを基盤としている。AMDのコンピューティングプラットフォームで訓練され、10億未満のアクティブパラメーターながら、数学やコーディングのベンチマークでDeepSeek-R1-0528を上回る、または同等の性能を示したと報告されている。

      arXiv cs.AI 続きを読む →
      AI Edgeline

      シリコンバレーの超最前線の AI 情報を、毎日最速でアップデート。一次情報を、新聞記事スタイルで届けます。

      カテゴリ

      • VC・資金調達
      • ベンダー・製品
      • リサーチ・論文
      • ポッドキャスト
      • 規制・政策

      編集について

      • 編集方針
      • RSS フィード
      • X (旧 Twitter)
      • GitHub

      すべての記事に原文へのリンクと公開日時を併記しています。一次情報の信頼性を最優先に運営しています。

      © 2026 AI Edgeline