AI Watch(2026年3月18日)
今日のハイライト
OpenAI が GPT-5.4 mini / nano を本日リリース(3/17)。フラッグシップの GPT-5.4 を軽量化した 2 モデルで、コーディング・ツール活用・マルチモーダル推論・高スループット API ワークロードに特化。サブエージェント用途を明示的に設計目標に据えた点が特徴で、フロンティア推論能力のダウンストリーム展開が加速する。
エージェント向け実行前安全ゲート「ILION」が arxiv に登場(3/17)。ファイル操作・API コール・DB 変更などリアルワールド影響を持つアクションを、決定論的なルールで実行前にブロックする仕組みを提案。自律エージェントの安全性確保をモデル能力とは独立したレイヤーで実現するアーキテクチャとして注目される。
企業動向
- Introducing GPT-5.4 mini and nano (OpenAI, 3/17) - GPT-5.4 の軽量・高速版として mini と nano の 2 モデルを同時公開。コーディング・ツール活用・マルチモーダル推論に最適化され、高ボリューム API や自律エージェントのサブタスク処理を主な用途として想定。ベースの GPT-5.4(3/5 リリース)が提供した 1M コンテキスト・computer use 能力を継承しつつ、コスト効率を大幅に改善したラインナップ拡張で、企業による大規模エージェント展開を後押しする。
※ Anthropic・Google DeepMind からは過去 24 時間以内の新規投稿なし(DeepMind ブログはアクセス取得失敗)。
注目論文
-
ILION: Deterministic Pre-Execution Safety Gates for Agentic AI Systems(cs.AI, 3/17)- ファイルシステム操作・API コール・DB 変更など実世界に影響を及ぼすアクションを、LLM の内部挙動に依存せず決定論的なルールで実行前にブロックする安全ゲートの設計を提案。自律エージェントの安全保証をモデルのアライメント品質から切り離せる点が重要で、アクション範囲が広がる自律エージェント時代の安全アーキテクチャの標準的なパターンになりうる。
-
Think First, Diffuse Fast: Improving Diffusion Language Model Reasoning via Autoregressive Plan Conditioning(cs.AI, 3/17)- Diffusion LLM はマルチステップ推論が苦手という既知の問題に対し、まず自己回帰モデルで「推論プラン」を生成し、そのプランを条件として拡散過程を実行するハイブリッド手法を提案。プランが制約として機能することで一貫した推論ステップが生成でき、dLLM の実用性を大きく高める可能性がある。拡散型テキスト生成の弱点を補完する構成として興味深い。
-
AutoTool: Automatic Scaling of Tool-Use Capabilities in RL via Decoupled Entropy Constraints(cs.AI, 3/17)- ツール活用能力を強化学習でスケールさせる際に、探索(エントロピー)を行動空間の複雑さに応じて分離制御する手法を提案。単一のエントロピー制約では過剰探索と過少探索が混在する問題を解消し、ツールの種類が増えても安定したRL学習を実現。エージェントが多様なツールを使いこなす能力の向上に直接貢献する実装貢献。
-
Why Grokking Takes So Long: A First-Principles Theory of Representational Phase Transitions(cs.AI, 3/17)- 学習データを完全に暗記した後に突然汎化が起きる「Grokking」現象に対して、第一原理から定量的な理論を提案。内部表現の相転移として現象を説明し、なぜ汎化まで大量のステップが必要なのかを理論的に予測する。過学習・汎化・ファインチューニングのダイナミクス理解に基礎的な知見をもたらす理論論文。
-
Steering at the Source: Style Modulation Heads for Robust Persona Control(cs.CL, 3/17)- アクティベーションステアリングでペルソナ(スタイル)を制御する既存手法は、ターゲット特性は変えられるが応答の一貫性が劣化するという問題を指摘。特定のアテンションヘッドをスタイル変調に特化させることで、ペルソナ制御と応答品質を両立させる手法を提案。カスタマイズ可能な LLM の実用化において一貫性の確保は重要課題であり、解決アプローチとして注目される。
オープンソース・モデル
-
Qwen/Qwen3.5-9B (890 いいね) - Alibaba Qwen チームが公開した Qwen 3.5 ファミリーの 9B 公式ベースモデル。トレンド内で最多いいねを獲得しており、同シリーズの蒸留・派生モデルが多数登場するなか、本家公式ウェイトへの関心が依然として高い。コンシューマ向けサイズ帯で汎用性の高いベースとして広く活用されることが予想される。
-
mistralai/Mistral-Small-4-119B-2603 (196 いいね) - Mistral AI による最新版 Mistral Small 4。119B という大型サイズながら “Small” を冠するのは MoE(Mixture of Experts)構造を採用しているためと見られ、活性化パラメータを絞った推論効率型モデル。2603 のサフィックスは 2026 年 3 月を示し、直近リリースであることを示す。Mistral が中間サイズ帯の高品質モデルを継続投入している点で注目。
-
nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-BF16 (237 いいね) - NVIDIA が公開した Nemotron-3 Super シリーズの 120B モデル(アクティブパラメータ 12B)。エンタープライズ向け最適化モデルとして NVIDIA のエコシステムとの親和性が高く、BF16 精度での公開により幅広いハードウェアで利用可能。大規模推論インフラとモデルの垂直統合を進む NVIDIA の HuggingFace 展開が続く。
-
Tesslate/OmniCoder-9B (275 いいね) - Tesslate が公開した 9B サイズのコーディング特化モデル「OmniCoder」。複数言語・フレームワークに対応した汎用コーディング能力を主眼に置いており、GPT-5.4 mini/nano が「コーディング最適化」を強調するなかで、オープンウェイト側でも競争が激化するコーディング LLM 市場の一角を担う存在として注目される。
所感
本日は OpenAI が GPT-5.4 mini / nano のリリースで大型モデルの「軽量化・エージェント特化」トレンドを一段と前進させた。HuggingFace のトレンドでも Qwen3.5-9B の公式ウェイト・Mistral Small 4・NVIDIA Nemotron など新顔が揃い、中規模オープンウェイト競争が引き続き活発だ。arxiv では ILION の「実行前決定論的ゲート」のようにモデル品質に依存しない安全レイヤーを設計する論文が登場し、エージェントが実世界に触れる範囲が広がるにつれて「能力と安全をどう分離設計するか」への関心が高まっていることを感じる。