リサーチ・論文 · 5月9日 20:15 LLM安全性評価、ベンチマーク不在下での比較スコアリング手法を検証 arXiv cs.LGが2026年5月7日(現地時間)付けで報じたところによると、ラベル付きベンチマークが存在しない状況下で大規模言語モデル(LLM)の安全性を比較するための新しい評価手法が提案され、その検証結果が公開された。この手法は「ベンチマークレス比較安全性スコアリング」と称され、シナリオベースの監査を導入の証拠として解釈する契約が形式化された。