OpenAIが外部研究者向け安全性フェローシップを新設

プログラムの概要

2026年9月から約5カ月間のパイロットプログラム
安全性評価・倫理・堅牢性など幅広い研究領域が対象
月額給付金・計算資源・メンターシップを提供

応募要件と選考

CS・社会科学・サイバーセキュリティなど多様な分野から募集
研究能力と技術的判断力を資格より重視
応募締切は5月3日、結果通知は7月25日

研究体制と成果

BerkeleyのConstellation拠点またはリモート参加可
論文・ベンチマーク・データセットなど具体的成果物を求める
詳細を読む

OpenAIは2026年4月6日、外部の研究者・エンジニア・実務家を対象とした「OpenAI Safety Fellowship」の応募受付を開始したと発表しました。このフェローシップは、先進的なAIシステムの安全性とアラインメントに関する独立した研究を支援するパイロットプログラムで、2026年9月14日から2027年2月5日までの約5カ月間にわたって実施されます。

優先研究領域には、安全性評価倫理、堅牢性、スケーラブルな緩和策、プライバシー保護型の安全手法、エージェント監視、高リスク悪用領域などが含まれます。実証的で技術的に優れ、広範な研究コミュニティに貢献する研究が特に歓迎されています。

フェローにはOpenAIメンターとの密接な連携機会が提供されるほか、BerkeleyのConstellationにワークスペースが用意されます。リモート参加も可能です。プログラム終了時には論文、ベンチマーク、データセットなどの具体的な研究成果物の提出が求められます。

応募資格は計算機科学に限らず、社会科学、サイバーセキュリティプライバシー、HCIなど幅広い分野の人材が対象です。特定の学歴・資格よりも研究能力と技術的判断力が重視されます。なおフェローにはAPIクレジットなどのリソースが提供されますが、OpenAI内部システムへのアクセス権は付与されません。

応募は現在受付中で、締切は5月3日です。選考結果は7月25日までに通知される予定です。OpenAIが外部研究者にこうした体系的なフェローシッププログラムを提供するのは初めてであり、AI安全性研究の次世代人材育成への取り組みとして注目されます。