OpenAI、AI安全担当「準備チーム長」を公募

採用背景と求められる役割

AIモデルが「真の課題」を呈し始めた——アルトマン
精神的健康への影響が看過できない水準に
モデルが重大脆弱性を発見できるほど高性能化
サイバー防御者の強化と攻撃者排除を両立が使命
生物学的能力の安全な公開方法を設計
自己改善システムの安全性確認も担当

安全チームの流出と再構築

2023年設立の準備チームが中核担当
前任Madry氏はAI推論職に異動させられた
複数の安全責任者OpenAIを離職
準備フレームワークは最近更新済み
競合が高リスクAIを出せば要件緩和の可能性
年俸55万5千ドル+株式の高待遇ポスト
詳細を読む

OpenAIがAIリスクの最前線を担うHead of Preparedness(準備チーム長)の公募を開始しました。CEO Sam Altmanが自らXで告知し、AIモデルが「真の課題」を提示し始めたと認めました。

特にAIが精神的健康に与える影響と、サイバーセキュリティ分野での能力が焦点です。最新モデルはすでに重大な脆弱性を自力で発見できるほどの能力を持ち、攻撃者に悪用されないための管理体制構築が急務となっています。

ChatGPTと自殺を関連付ける訴訟が複数提起されており、チャットボットがユーザーの妄想を強化したり社会的孤立を深めた可能性が指摘されています。このような社会的影響への対処も新任者の重要な責務です。

同ポジションは2023年に創設されましたが、前任のAleksandr Madry氏はAI推論職に異動させられ、複数の安全責任者が離職しています。年俸55万5千ドルと株式という高待遇で、安全への本気度を示す戦略的採用です。