OpenAI、AIモデル行動規範「Model Spec」の設計思想を公開

OpenAI

Model Specの構造

指示の優先順位を定める権限体系
不変のハードルールと上書き可能なデフォルト
グレーゾーン判断用の判定基準と具体例を併記

透明性と運用

オープンソースで公開し外部からの批判を歓迎
社内横断チームが合意形成プロセスで改訂
準拠度を測る評価スイートも同時公開

今後の方向性

能力向上に伴い行動規範の明確化がより重要に
集団的アライメントで民主的な入力を反映
詳細を読む

OpenAIは、AIモデルがどのように振る舞うべきかを定めた公式フレームワーク「Model Spec」の設計思想と運用方針を詳細に解説するブログ記事を公開しました。Model Specは2024年の初版以降、継続的に改訂されています。

Model Specの中核は「Chain of Command(指示の連鎖)」と呼ばれる権限体系です。OpenAI、開発者、ユーザーからの指示が競合した場合の優先順位を定め、上書き不可のハードルールと、ユーザーや開発者が変更可能なデフォルト設定を明確に区別しています。

同社はModel Specを単なる理想像ではなく、透明性と説明責任のためのツールと位置づけています。GitHubでオープンソース化し、公開フィードバックや集団的アライメントの取り組みを通じて外部からの意見を積極的に取り入れる方針です。

現行モデルがModel Specを完全に反映していない理由として、訓練の遅延、意図しない学習結果、実世界の長いテールへの対応の限界を挙げています。記事と同時に、準拠度を測定するシナリオベースの評価スイートも公開されました。

OpenAIは、モデルの能力が向上しエージェント的になるほど、曖昧さのコストが増大すると指摘しています。憲法と判例法の関係になぞらえ、高次原則と具体的ルール、そして改訂プロセスの三位一体が不可欠だと主張しています。