ファインチューニング(モデル学習手法・技術)に関するニュース一覧

AIの弱点、人間的な『毒』の模倣が知性より困難

AIを見破る新たな視点

過度に丁寧な感情表現が特徴
人間特有のネガティブさの欠如
70-80%の高精度でAIを検出

研究の概要と手法

主要SNSで9種のLLMをテスト
独自の「計算論的チューリングテスト」
調整後も感情の差は歴然

ビジネスへの示唆

AIによる世論操作対策への応用
より人間らしい対話AI開発のヒント

チューリッヒ大学などの国際研究チームが、ソーシャルメディア上でAIが生成した文章は、過度に丁寧で人間特有の「毒」がないため70〜80%の高精度で見分けられるという研究結果を発表しました。この研究は、AIが知性を模倣する能力は向上したものの、人間らしい自然な感情、特にネガティブな側面の再現には依然として大きな課題があることを示唆しています。

研究が明らかにしたのは、AIにとって知性を偽装するより「毒性」を偽装する方が難しいという逆説的な事実です。Twitter/XやRedditなどのプラットフォームで、実際の投稿に対するAIの返信を分析したところ、その毒性スコアは人間による返信より一貫して低いことが判明しました。AIは、人間同士のやり取りに見られる偶発的なネガティブさを再現できないのです。

研究チームは、人間の主観に頼らない「計算論的チューリングテスト」という新たな手法を導入しました。これは自動化された分類器と言語分析を用い、文章の長さなど構造的な特徴ではなく、感情のトーンや表現といった、より深い言語的特徴からAIが書いた文章を特定するものです。このアプローチにより、客観的なAI検出が可能になりました。

Llama 3.1やMistralなど9種類の主要な大規模言語モデル(LLM)がテスト対象となりました。研究チームは、プロンプトの工夫やファインチューニングといった最適化を試みましたが、AIの過度に友好的な感情トーンという根本的な特徴は解消されませんでした。「高度な最適化が、必ずしも人間らしい出力を生むわけではない」と研究は結論付けています。

この発見は、AIによる偽情報キャンペーンや世論操作ボットの検出に応用できる可能性があります。一方で、顧客対応AIなど、より自然で人間らしい対話を目指す開発者にとっては、「不完全さ」や「ネガティブさ」をいかに組み込むかという新たな課題を突きつけます。あなたの組織のAIは、丁寧すぎて逆に不自然になっていませんか。

Pinterest、オープンソースAIでコスト減と高性能両立

オープンソースAIの威力

桁違いのコスト削減`を実現
プロプライエタリモデルと`同等の性能`
Pinterestの特定用途に最適化

PinterestのAI活用戦略

ビジュアルAIでの活用を拡大
AIアシスタントで商品発見を支援
独自モデルとOSSを定期的に比較

背景と市場の反応

ホリデー商戦の売上予測は弱気
発表を受け株価は21%以上下落

画像共有サービス大手Pinterestは、オープンソースのAIモデルを活用することで、コストを大幅に削減しつつ高いパフォーマンスを維持できるとの見解を明らかにしました。11月5日の決算説明会でビル・レディCEOが言及したもので、ファインチューニング(微調整)により、大手モデルに匹敵する性能を桁違いに低いコストで実現できるとしています。

レディCEOは特にビジュアルAI分野での有効性を強調。定期的な比較テストの結果、ファインチューニングしたオープンソースモデルは、主要なプロプライエタリモデルと「`同等の性能`」を「`桁違いに低いコスト`」で達成できると述べました。これにより、多くのユースケースでオープンソースモデルへの移行を進める方針です。

この戦略は、同社の厳しい業績見通しを背景としています。ホリデー商戦の売上予測が市場予想を下回り株価が急落する中、AI投資の費用対効果が大きな課題となっていました。オープンソース活用は、コストを抑えながらイノベーションを推進するための具体的な回答と言えるでしょう。

同社はAIアシスタント「Pinterest Assistant」など、AI活用を積極的に進めています。今回の発表は、プロプライエタリモデルへの依存を減らし、自社のユースケースに最適化したAIを低コストで運用するというIT業界の新たな潮流を示すものです。経営者エンジニアにとって示唆に富む事例ではないでしょうか。

Google、市民参加型AIで熱帯雨林の生態系を保全

市民参加でAI生態系保全

Googleの新プロジェクト始動
熱帯雨林の音を市民が聞き分ける
生物多様性モニタリングが目的
専門機関WildMonとの協業

「耳」でAIを訓練し貢献

回答でAIモデル'Perch'を訓練
120万以上の音声録音が基盤
データ不足の課題を解決
不可能だった規模での生態系保護

Googleが市民参加型のAIプロジェクト「Forest Listeners」を開始しました。これは、ブラジルの熱帯雨林の生態系を保護するため、一般の人々が動物の鳴き声を聞き分け、AIモデルを訓練する取り組みです。Google Arts & CultureとDeepMindが開発し、専門機関と協力。クラウドソーシングで収集したデータにより、生物多様性のモニタリングをこれまでにない規模で実現することを目指します。

参加者はウェブサイト上の仮想3D森林で、録音された音を聞きます。そして、特定の動物の鳴き声が聞こえるかどうかを「はい」か「いいえ」で回答するだけです。この簡単な操作を通じて、誰もが専門的な知識なしに、最先端のAI研究と環境保全に直接貢献できる仕組みとなっています。

なぜ「音」なのでしょうか。森林に生息する動物の鳴き声の多様性やパターンは、その生態系の健全性を示す重要な指標です。しかし、何千時間にも及ぶ録音データを人力で分析するのは困難で、特に多くの重要種ではAIの訓練データが不足しているという課題がありました。

市民からの回答は、Google DeepMindのAIモデル「Perch」をファインチューニングするために活用されます。120万件以上の音声録音を基に、検証済み音声の巨大なライブラリを構築。これにより、AIが自動で種を認識する精度が向上し、科学者による生態系保護活動を大規模に支援します。

このプロジェクトは、単なるデータ収集に留まりません。参加者が熱帯雨林の生命力あふれる音に触れ、自然保護への関心を深める機会を提供します。テクノロジーと市民の協力を融合させ、地球の貴重な生態系を守るための新しいモデルケースとなることが期待されます。

SAP、調整不要の表計算AI発表 業務予測を即実現

「調整不要」の表計算AI

導入後すぐに予測分析へ活用
数十年のビジネスデータで学習

LLMとの明確な違い

テキストでなく表データから学習
数値間の関係性を深く理解
構造的で正確な回答を生成

提供計画と今後の展望

2025年第4四半期に一般提供
ノーコード環境での実験も可能

独ソフトウェア大手のSAPは、企業のAI導入を簡素化する新たな基盤モデル「RPT-1」を発表しました。このモデルは表形式データに特化しており、従来のLLMのように時間とコストのかかるファインチューニングが不要な点が最大の特徴です。導入後すぐに予測分析などの高度な業務に活用できるとしており、2025年第4四半期の一般提供開始を予定しています。

RPT-1は「リレーショナル基盤モデル」と名付けられ、リレーショナルデータベースやExcelのようなスプレッドシートのデータから学習します。SAPが数十年にわたり蓄積したビジネス取引データを基に事前学習済みのため、企業は自社の個別データを追加学習させることなく、「すぐに使える(out-of-the-box)」状態で業務アプリケーションに直接組み込むことが可能です。

テキストやコードを学習する大規模言語モデル(LLM)とは一線を画します。RPT-1は、数値や異なるセル間の関係性を深く理解することで、より構造的で正確な回答を生成できます。この特性は、特に金融分野や企業の業績管理など、精密な分析が求められる業務で真価を発揮するでしょう。汎用LLMでは対応が難しいユースケースを切り拓きます。

このモデルの基盤となっているのは、SAPの研究者が提唱した「ConTextTab」というアーキテクチャです。これは、テーブルのヘッダーや列の型といった意味情報(セマンティックシグナル)を手がかりに学習を進めることで、データ間の関連性を構造的に把握します。この仕組みが、RPT-1の精度の高さを支えています。

RPT-1は2025年第4四半期に、SAPのAI基盤サービス「AI Foundation」を通じて一般提供が開始される予定です。また、専門家でなくてもモデルを試せるノーコードの実験環境(プレイグラウンド)も提供されます。SAPは今後、オープンソースモデルを含む他のモデルも順次リリースする計画で、企業のAI活用をさらに加速させそうです。

Vertex AI強化、独自AIモデル開発をGoogleが支援

新サービス「Vertex AI Training」

企業独自の大規模モデル開発
マネージドSlurm環境を提供
数百〜数千チップの長期ジョブ
ハードウェア障害から自動復旧

競合との差別化と提供価値

AWS、CoreWeaveに対抗
多様なチップへのアクセス
Gemini開発の専門知識を活用
GPU調達の課題を解決

Google Cloudが、企業による独自の大規模AIモデル開発を支援する新サービス「Vertex AI Training」を発表しました。AWSや専門プロバイダーのCoreWeaveなどに対抗するもので、マネージドSlurm環境を提供し、大規模な計算資源へのアクセスを容易にします。

このサービスは、単純なファインチューニングやRAG(検索拡張生成)の利用者を対象としていません。ゼロからモデルを構築したり、大幅なカスタマイズをしたりする、数百から数千のチップを要する大規模なトレーニングジョブに焦点を当てています。

最大の特徴は、マネージドSlurm環境にあります。これにより、ジョブのスケジューリングやハードウェア障害発生時の自動復旧が実現します。ダウンタイムを最小限に抑え、大規模クラスタでの効率的なトレーニングを可能にするのです。

なぜ今、このようなサービスが求められるのでしょうか。背景には、企業がモデル開発に必要なGPUを確保する際の熾烈な競争があります。Vertex AI Trainingは、単なる計算資源のレンタルではなく、包括的な開発環境を提供することで競合との差別化を図ります。

Googleは、多様なチップへのアクセスや、自社のGeminiモデル開発で培った専門知識も提供価値として挙げています。既にシンガポールのAI Singaporeなどが早期顧客として名を連ねており、専門的なモデル開発の需要の高まりを示しています。

AIが感情を翻訳、高葛藤な人間関係を円滑化

対立緩和AIの仕組み

攻撃的なメッセージをフィルタリング
感情を除き事実のみを要約
冷静かつ建設的な返信案を提案
24時間対応の感情的支援

主要アプリとアプローチ

BestInterest: 高葛藤な相手に特化
OurFamilyWizard: 既存PFにAI機能追加

実用化への課題

相手へのツール利用の強制力なし
AI要約による情報欠落リスク

シリコンバレー起業家らが、離婚後の共同養育など高葛藤な人間関係における対立を緩和するAIツールを開発しています。この技術は、相手からの攻撃的なメッセージをフィルタリングし、感情的な表現を取り除いて事実のみを要約。さらに、利用者が冷静かつ建設的な返信を行えるようコーチングします。目的は、精神的な消耗を減らし、本来の課題解決に集中させること。人間関係の「感情のスペルチェック」とも言えるこの新技術に注目が集まっています。

開発の背景には、創業者自身のつらい経験があります。テック起業家のソル・ケネディ氏は、離婚した元妻とのメッセージのやり取りで精神的に消耗し、業務に支障をきたすほどでした。こうした個人的な課題を解決する「スケーラブルなソリューション」を求め、自身の経験を基にAIアプリ『BestInterest』を開発しました。

BestInterestの中核機能は、受信メッセージの感情フィルタリングです。例えば「お前はバカだ。子供を3時に迎えに来い」といったメッセージは、「相手は動揺しており、子供を3時に迎えに来れるか尋ねています」と変換・要約されます。これによりユーザーは感情的な反応から距離を置き、事実に基づいた対応が可能になります。

もう一つの柱が、返信のコーチング機能です。ユーザーが攻撃的な返信をしようとすると、AIが介入。ナルシシズム研究の権威である心理学者の監修のもと、単に謝罪を促すのではなく、毅然とした態度で建設的な対話を導く「背骨のある」応答を提案します。感情的な応酬を断ち切る狙いです。

競合もAI導入を急いでいます。共同養育支援プラットフォーム大手『OurFamilyWizard』は、AI機能『ToneMeter AI』を実装。1万件以上の実データでファインチューニングした独自LLMが、不適切な表現をより穏やかな言い回しに書き換える提案をします。既存のユーザー基盤とデータ量が強みです。

しかし、実用化には課題も残ります。相手に専用アプリや電話番号の使用を同意させるのは、高葛藤な関係性では特に困難です。また、AIによる要約が重要なニュアンスや法的な証拠を見落とすリスクも指摘されており、最終的には利用者が原文を確認する必要があります。技術への過信は禁物と言えるでしょう。

この技術の応用範囲は共同養育に留まりません。家族間の対立、職場のハラスメント、さらにはSNS上の誹謗中傷など、あらゆるコミュニケーションの健全化に貢献する可能性を秘めています。専門家は、いずれ「感情のスペルチェック」がスマートフォンの標準機能になる未来も予測しています。

LLMも「脳腐敗」、低品質データで性能低下か

「LLM脳腐敗」仮説

人間の脳腐敗から着想
ジャンクデータで認知能力が低下
米国の複数大学が共同研究

「ジャンクデータ」の定義

高エンゲージメントで短い投稿
陰謀論や誇張された主張
クリックベイトなど扇動的な内容
GPT-4oで意味的な質を評価

ビジネスへの示唆

学習データの品質管理が不可欠
モデルの長期的な性能を左右

テキサスA&M;大学など米国の研究チームが、大規模言語モデル(LLM)を低品質な「ジャンクデータ」で継続的に学習させると、人間の「脳腐敗」に似た性能低下が起きる可能性を指摘する論文を発表しました。この研究は、LLMの性能を維持・向上させる上で、学習に用いるデータの「量」だけでなく「質」が極めて重要であることを示唆しており、AIをビジネス活用する企業にとって重要な知見となりそうです。

研究チームが提唱するのは「LLM脳腐敗仮説」です。これは、人間がインターネット上で些細で質の低いコンテンツを大量に消費すると、注意⼒や記憶⼒が低下する現象に着想を得ています。同様に、LLMもジャンクなウェブテキストで事前学習を続けると、持続的な認知能力の低下を招くのではないか、というのが仮説の骨子です。

では、何が「ジャンクデータ」と見なされるのでしょうか。研究チームはHuggingFaceが公開する1億件のツイートデータを分析し、2つの指標で定義を試みました。一つは、エンゲージメント(いいね、リツイート等)は高いが、文章が短いツイートです。これらは些細な内容でユーザーの注意を引く「ジャンク」の典型例とされました。

もう一つの指標は、ツイートの「意味的な質」です。研究チームはGPT-4oを活用し、陰謀論、誇張された主張、根拠のない断言、あるいはクリックベイトのような扇動的な見出しを含むツイートを「ジャンク」として分類しました。このAIによる分類の精度を人間が検証したところ、76%の一致率を示し、一定の信頼性が確認されています。

この研究は、AIをビジネスに活用する経営者エンジニアに重要な問いを投げかけています。自社データなどでLLMをファインチューニングする際、安易に大量のデータを投入するだけでは、かえってモデルの性能を損なう危険性があるのです。AI戦略において、データの品質をいかに担保するかというデータガバナンスの重要性が、改めて浮き彫りになったと言えるでしょう。

アドビ、企業専用Firefly構築の新サービス開始

Fireflyの高度なカスタマイズ

企業IPでFireflyを再トレーニング
ブランド専用のAIモデルを構築
微調整ではないディープチューニング
画像動画、3Dなどマルチモーダル対応

コンサルティング型サービス

アドビ専門チームが直接連携
データ選定から運用まで支援
企業のIPは安全に分離・保護
ディズニーなどが先行導入

アドビは2025年10月20日、企業向けの新サービス「Adobe AI Foundry」を発表しました。このサービスは、企業のブランド資産や知的財産(IP)を用いて、同社の生成AIモデル「Firefly」を根本から再構築し、企業専用のカスタムAIモデルを提供するものです。企業のより高度で複雑なカスタマイズ需要に応えることを目的としています。

最大の特徴は「ディープチューニング」と呼ばれる手法です。これは、既存のAIモデルの表面を微調整する「ファインチューニング」とは一線を画します。Fireflyのベースモデルを外科的に再手術するかのように、企業のIPを深く組み込んで再トレーニングすることで、ブランドのトーンやスタイルを完全に理解したモデルを構築します。

AI Foundryは、アドビの専門チームが顧客と直接連携するコンサルティング型のサービスです。データ選定から安全な取り込み、モデルの再トレーニングまでを一貫して支援します。顧客企業のIPは厳格に分離・保護され、他のモデルの学習に利用されることはありません。完成したモデルはAPI経由で提供されます。

このサービスにより、企業は自社ブランドの世界観に完全に合致した画像動画、3Dコンテンツなどを大規模に生成できます。例えば、一度制作した広告キャンペーンを、季節や言語、フォーマットに合わせて瞬時に横展開することが可能になり、マーケティングのパーソナライズ化を加速させます。

既に米小売大手The Home Depotやウォルト・ディズニー・イマジニアリングが先行顧客として導入しています。アドビは、このサービスが人間の創造性を代替するのではなくクリエイターの表現力を高めるための次世代ツールであると位置づけており、今後の展開が注目されます。

Salesforce、AWS活用でLLM運用コスト40%削減

カスタムLLM運用の課題

数ヶ月かかるデプロイ作業
ピーク時を見越したGPU予約コスト
頻繁なリリースに伴う保守の複雑化

Bedrock導入による成果

デプロイ時間を30%短縮
運用コストを最大40%削減
サーバーレスによる自動スケール実現

導入成功のポイント

既存APIを維持するハイブリッド構成
コールドスタートへの対策実施

クラウド大手のセールスフォースは、AWSのAIサービス「Amazon Bedrock」を導入し、自社でカスタマイズした大規模言語モデル(LLM)の運用を効率化しました。これにより、モデルのデプロイにかかる時間を30%短縮し、インフラコストを最大40%削減することに成功。AI開発の生産性向上とコスト最適化を両立した事例として注目されます。

同社はこれまで、ファインチューニングしたLLMを自社で運用していましたが、インフラの最適化や設定に数ヶ月を要し、運用負荷の高さが課題でした。また、ピーク時の需要に備えてGPUリソースを常に確保する必要があり、コストが嵩む一因となっていました。

そこで採用したのが、Bedrockの「カスタムモデルインポート」機能です。これにより、インフラ管理の大部分をAWSに任せ、チームはモデル開発やビジネスロジックに集中できるようになりました。既存の運用フローへの影響を最小限に抑え、スムーズな移行を実現しています。

移行の鍵は、既存システムとの後方互換性を保つハイブリッド構成です。アプリケーションからのリクエストをまずSageMakerのCPUコンテナで受け、前処理を行った後、GPUを要する推論処理のみをBedrockに転送。これにより、既存のAPIや監視ツールを変更することなく、サーバーレスの利点を享受できました。

導入後の効果は顕著です。インフラ選定などの複雑な作業が不要になり、モデルのデプロイ時間は30%短縮されました。コスト面では、従量課金制への移行により、特に開発・テスト環境など利用頻度に波がある場面で効果を発揮し、最大40%のコスト削減を達成しました。

一方で、大規模モデルでは「コールドスタート」と呼ばれる初回起動時の遅延が発生する点は注意が必要です。同社は、遅延が許容できない本番環境では、定期的にエンドポイントにアクセスして「ウォーム」状態を維持する対策を講じています。自社モデルがサポート対象かも事前に確認すべきです。

Salesforceの事例は、サーバーレスAIが本番環境のワークロードにも十分対応できることを示しています。特にトラフィックが変動するAIアプリケーションにおいて、コストと運用の両面で大きなメリットをもたらすでしょう。LLMの自社運用に課題を抱える企業にとって、有力な選択肢となりそうです。

AIモデルの部分的再訓練でコスト削減

従来の課題

全体再訓練は高コスト

新たなアプローチ

部分的な再訓練を提案
「忘却」はバイアスの偏りが原因
特定層の調整で性能を維持

期待される効果

計算コストの大幅削減
出力のドリフトを抑制
より効率的なモデル更新

イリノイ大学の研究者らが、AIモデルの再訓練における新たな手法を発表しました。モデルの一部のみを再訓練することで、計算コストを削減し、「破滅的忘却」と呼ばれる既存能力の低下を防ぐことが可能です。

企業がLLMを特定タスクに適応させるファインチューニングでは、モデルが以前の能力を忘れてしまう問題がありました。モデル全体の再訓練は、数百万ドルの費用と数週間の時間を要するため、大きな課題でした。

研究によれば、この「忘却」は真の記憶喪失ではなく、バイアスの偏りが原因です。そこで、モデル全体ではなく、意思決定に関わる特定の層(自己注意射影層)のみを再訓練する手法を提案しました。

このアプローチにより、新たなタスクの学習効果を維持しつつ、既存タスクの性能低下をほとんど防げます。結果として、コストを大幅に削減し、より迅速で制御しやすいモデルの更新が実現します。

現状は視覚と言語を扱う2つのモデルでの検証ですが、この原理は他のLLMや異なるモダリティにも応用可能とみられており、今後の発展が期待されます。

MIT技術でAIが自律的に進化へ

SEAL技術の概要

LLMが自律的に自己改善
合成データを生成し学習

具体的な性能

知識タスクで大幅な性能向上
GPT-4.1が生成したデータを上回る
フューショット学習でも成功

今後の課題と展望

災害的忘却リスク
計算コストが課題
モデルの大型化で適応能力向上

マサチューセッツ工科大学(MIT)の研究チームが、大規模言語モデル(LLM)が自らを改善する技術「SEAL」の改良版を公開し、AIの自律的な進化が現実味を帯びてきました。この技術は、LLMが自ら合成データを生成してファインチューニングを行うことで、外部からの継続的なデータ供給や人間の介入なしに性能を向上させることを可能にします。

SEALの核心は、モデルが「自己編集」と呼ばれる自然言語の指示を生成し、それに基づいて自らの重みを更新する点にあります。これは、人間が学習内容を再構成して理解を深めるプロセスに似ており、従来のモデルがデータをそのまま受け身で学習するのとは一線を画します。

性能評価では、SEALは目覚ましい成果を上げています。新たな事実知識を取り込むタスクでは、正答率を33.5%から47.0%へと向上させ、これはGPT-4.1が生成したデータを使った場合を上回りました。また、少数の例から学ぶフューショット学習でも、成功率を20%から72.5%に引き上げています。

技術的には、SEALは「内側ループ」で自己編集による教師ありファインチューニングを行い、「外側ループ」で強化学習によってより有益な編集を生成する方策を学ぶ、という二重ループ構造を採用しています。計算効率を高めるため、効率的なファインチューニング手法であるLoRAが活用されています。

しかし、課題も残されています。新たな情報を学習する際に、以前に学習した能力が低下する「災害的忘却」のリスクや、一つの編集を評価するのに30~45秒かかる計算コストの高さが挙げられます。研究チームは、強化学習がこの忘却を緩和する可能性があると指摘しています。

それでも、この技術がもたらすインパクトは計り知れません。AIコミュニティからは「凍結された重みの時代の終わり」との声も上がっており、モデルが環境の変化に合わせて進化し続ける、より適応的でエージェント的なAIシステムへの道を開くものと期待されています。

NVIDIA、LLMの思考力を事前学習で鍛える新手法

思考を促す新訓練手法

モデルが自ら思考を生成
思考の有用性に応じて報酬を付与
外部検証者が不要な自己完結型

推論能力の大幅な向上

数学・科学分野で高スコアを記録
少ないデータで高い性能を発揮
企業の高信頼性ワークフローに応用

NVIDIAの研究者チームが、大規模言語モデル(LLM)の訓練手法を根本から変える可能性のある新技術「強化学習事前学習(RLP)」を発表しました。この手法は、従来は訓練の最終段階で行われていた強化学習を、大量のテキストデータを読み込む事前学習の初期段階に統合するものです。これにより、モデルは自ら「思考」する能力を早期に獲得し、複雑な推論タスクにおける性能が飛躍的に向上することが示されました。

従来のLLM開発では、まず「次の単語を予測する」という単純なタスクを通じて、膨大なテキストデータから言語の基本構造を学習させます。その後に、人間によるフィードバックや特定のデータセットを用いたファインチューニング(微調整)で、思考の連鎖CoT)のような高度な推論能力を教え込むのが一般的でした。しかし、この逐次的なプロセスでは、モデルが深い思考力を初期から身につけることが難しいという課題がありました。

新手法RLPは、このプロセスを刷新します。モデルは次の単語を予測する前に、まず内部で「思考」や推論の連鎖を生成します。そして、その思考が予測精度をどれだけ向上させたかに基づいて、自律的に報酬を受け取ります。思考が予測に役立った場合にのみ正の報酬が与えられるため、モデルは人間によるラベル付けや外部の検証者を必要とせず、有用な思考パターンを効率的に学習していきます。

実験では、RLPを用いて訓練されたモデルが、数学や科学といった高度な推論を要するベンチマークで、従来手法で訓練されたモデルを一貫して上回る性能を示しました。特に注目すべきは、ファインチューニング後もこの性能向上が失われることなく、むしろ相乗効果を生み出す点です。これは、後の学習で以前の知識を忘れてしまう「破滅的忘却」という課題を克服し、より堅牢な基礎能力を構築できることを意味します。

この技術は、企業のワークフローにも大きな影響を与える可能性があります。例えば、金融分析や法務文書の要約など、複数ステップの論理的な思考が求められる業務において、AIの信頼性を高めることが期待されます。NVIDIAの研究担当ヴァイスプレジデントであるブライアン・カタンザロ氏は、「RLPは既存のファインチューニングを置き換えるのではなく、その効果を増幅させるものだ」と述べ、より強力なモデルを構築するための新たな基盤になるとの考えを示しています。

RLPは、単なる訓練コストの削減技術にとどまりません。LLMの学習プロセス自体を、受動的な単語予測から、より能動的で好奇心旺盛な「思考」の探求へとシフトさせるものです。このアプローチは、AIが世界の情報をどのように見て、それについてどう考えるかを教える新しい道筋を示唆しており、将来のAI開発における新たなスケーリングの軸となる可能性を秘めているのです。

PowerSchool、SageMakerで実現した教育AI向けコンテンツフィルタリング

K-12教育特化AIの安全確保

K-12教育向けAIアシスタント「PowerBuddy」
歴史教育などでの誤検出(False Positive)を回避
いじめ・自傷行為の即時検知を両立させる必要性

SageMaker活用によるモデル育成

Llama 3.1 8BをLoRA技術で教育特化ファインチューニング
高い可用性とオートスケーリングを要件にSageMakerを採用
有害コンテンツ識別精度約93%、誤検出率3.75%未満

事業へのインパクトと将来性

学校現場での教師の負担を大幅に軽減
将来的にマルチアダプター推論で運用コストを最適化

教育分野向けのクラウドソフトウェア大手PowerSchoolは、AIアシスタント「PowerBuddy」の生徒安全を確保するため、AWSAmazon SageMaker AIを活用し、コンテンツフィルタリングシステムを構築しました。オープンな基盤モデルであるLlama 3.1を教育ドメインに特化してファインチューニングし、高い精度と極めて低い誤検出率を両立させ、安全な学習環境の提供を実現しています。

このソリューションが目指したのは「責任あるAI(Responsible AI)」の実現です。ジェネリックなAIフィルタリングでは、生徒が歴史的な戦争やホロコーストのような機微な学術的話題を議論する際に、誤って暴力的コンテンツとして遮断されるリスクがありました。同時に、いじめや自傷行為を示唆する真に有害な内容は瞬時に検知する必要があり、ドメイン特化の調整が不可欠でした。

PowerSchoolは、このカスタムモデルの開発・運用基盤としてAmazon SageMaker AIを選定しました。学生の利用パターンは学校時間帯に集中するため、急激なトラフィック変動に対応できるオートスケーリング機能と、ミッションクリティカルなサービスに求められる高い信頼性が決め手となりました。また、モデルの重みを完全に制御できる点も重要でした。

同社はLlama 3.1 8Bモデルに対し、LoRA(Low Rank Adaptation)技術を用いたファインチューニングをSageMaker上で行いました。その結果、教育コンテキストに特化した有害コンテンツ識別精度は約93%を達成。さらに、学術的な内容を誤って遮断する誤検出率(False Positive)を3.75%未満に抑えることに成功しました。

この特化型コンテンツフィルタリングの導入は、学生の安全を確保するだけでなく、教育現場に大きなメリットをもたらしています。教師はAIによる学習サポートにおいて生徒を常時監視する負担が減り、より個別指導に集中できるようになりました。現在、PowerBuddyの利用者は420万人以上の学生に拡大しています。

PowerSchoolは今後、SageMaker AIのマルチアダプター推論機能を活用し、コンテンツフィルターモデルの隣で、教育ドメインに特化した意思決定エージェントなど複数の小型言語モデル(SLM)を展開する計画です。これにより、個別のモデルデプロイが不要となり、専門性能を維持しつつ大幅なコスト最適化を目指します。

元OpenAIムラティ氏、AI調整ツールTinker公開

元OpenAI幹部の新挑戦

ミラ・ムラティ氏が新会社を設立
初製品はAIモデル調整ツールTinker
評価額120億ドルの大型スタートアップ

TinkerでAI開発を民主化

専門的な調整作業をAPIで自動化
強化学習でモデルの新たな能力を開拓
調整済みモデルはダウンロードして自由に利用可

OpenAIの最高技術責任者(CTO)であったミラ・ムラティ氏が共同設立した新興企業「Thinking Machines Lab」は2025年10月1日、初の製品となるAIモデル調整ツール「Tinker」を発表しました。このツールは、最先端AIモデルのカスタマイズ(ファインチューニング)を自動化し、より多くの開発者や研究者が高度なAI技術を利用できるようにすることを目的としています。

「Tinker」は、これまで専門知識と多大な計算資源を要したモデルのファインチューニング作業を大幅に簡略化します。GPUクラスタの管理や大規模な学習プロセスの安定化といった複雑な作業を自動化し、ユーザーはAPIを通じて数行のコードを記述するだけで、独自のAIモデルを作成できるようになります。

特に注目されるのが、強化学習(RL)の活用です。共同創業者ChatGPT開発にも関わったジョン・シュルマン氏が主導するこの技術により、人間のフィードバックを通じてモデルの対話能力や問題解決能力を飛躍的に向上させることが可能です。Tinkerは、この「秘伝のタレ」とも言える技術を開発者に提供します。

Thinking Machines Labには、ムラティ氏をはじめOpenAIの元共同創業者や研究担当副社長など、トップレベルの人材が集結しています。同社は製品発表前にすでに20億ドルのシード資金を調達し、評価額は120億ドルに達するなど、業界から極めて高い期待が寄せられています。

現在、TinkerはMeta社の「Llama」やAlibaba社の「Qwen」といったオープンソースモデルに対応しています。大手テック企業がモデルを非公開にする傾向が強まる中、同社はオープンなアプローチを推進することで、AI研究のさらなる発展と民主化を目指す考えです。これにより、イノベーションの加速が期待されます。

Google、AIで巨匠の作風を学び椅子をデザイン

AIとデザイナーの協業

Googleと著名デザイナーの協業
生成AIでデザインを試作
有機的な作風をAIが学習

独自モデルで創造性を拡張

独自スケッチでAIを訓練
言語化と対話で出力を調整
金属3Dプリンタで実物化
創造性を拡張する協業ツール

Google DeepMindは、世界的に著名なデザイナーであるロス・ラブグローブ氏と協業し、生成AIを用いてユニークな椅子をデザインしました。ラブグローブ氏独自のスケッチ群を学習データとし、画像生成モデルをファインチューニング。AIとの対話を通じて氏の作風を反映した新たなアイデアを生み出し、最終的に金属3Dプリンターで物理的なプロトタイプを制作しました。これはAIが創造的プロセスを支援する強力なツールとなり得ることを示す事例です。

プロジェクトの目的は、生成AIを用いてコンセプト作りから物理的な製品まで一貫してデザインを完遂することでした。題材に選ばれたのは、機能が固定されつつも形状の自由度が高い「椅子」。デザイナー独自のスタイルやニュアンスをAIがどこまで正確に捉え、表現できるかという、古典的かつ本質的なデザインの課題に挑戦しました。

開発チームは、ラブグローブ氏が厳選したスケッチの高品質なデータセットを作成。これをGoogleのテキスト画像生成モデル「Imagen」に学習させ、ファインチューニングを行いました。このプロセスにより、モデルはラブグローブ氏のデザイン言語の核となる特有の曲線や構造的論理、有機的なパターンを組み込み、氏の作風に根差した新しいコンセプトを生成できるようになったのです。

成功の鍵は、デザイナーとAIの「対話」にありました。チームは、氏のデザイン語彙を言語化し、AIへの指示(プロンプト)を工夫することで、出力の精度を高めました。例えば、あえて「椅子」という単語を使わず類義語で指示を出し、より多様な形状や機能の探求を促しました。この試行錯誤が、AIを単なるツールから共同制作者へと昇華させたのです。

AIとの協業プロセスを経て生み出された数々のコンセプトから、ラブグローブ氏のチームは最終的なデザインを選定。金属3Dプリンティング技術を用いて、AIが生成したデジタルデータを実物の椅子として作り上げました。ラブグローブ氏は「AIが、ユニークで並外れた何かをプロセスにもたらしうることを示している」と、この成果を高く評価しています。

この事例は、AIが人間の専門性や創造性を代替するのではなく、むしろ拡張するための強力なパートナーになり得ることを明確に示しています。自社の製品開発やサービス設計において、AIをいかに「協業相手」として活用するか経営者エンジニアにとって、その可能性を探る貴重なヒントとなるでしょう。

Hugging Face、軽量AIでGUI操作エージェント開発手法を公開

AIプラットフォームのHugging Faceは2025年9月24日、軽量な視覚言語モデル(VLM)をGUI操作エージェントに進化させる新手法「Smol2Operator」を公開しました。この手法は2段階のファインチューニングを通じて、モデルに画面要素の認識能力と複雑なタスクの計画・実行能力を付与します。同社はGUI自動化技術の発展を促進するため、訓練手法やデータセット、モデルを全てオープンソース化し、開発の再現性を高めています。 GUI操作AIの開発では、データセットごとに操作の記述形式が異なり、統一的な学習が困難でした。この課題に対し、同社は多様なデータ形式を標準化された一つのアクション空間に変換するパイプラインを開発。これにより、様々なデータソースを一貫してモデル訓練に活用できるようになりました。企業の開発者は、独自の操作体系に合わせてデータセットを容易に変換できます。 訓練の第1段階では、モデルにGUI上の要素を正確に認識・特定する「グラウンディング能力」を付与します。「ボタンをクリックする」といった低レベルの指示と、画面上の座標を含む実行コードを対にしたデータで学習させ、モデルが画面を「見る」能力の基礎を築きます。これにより、AIは指示された対象を正確に特定できるようになります。 第2段階では、モデルに思考力と計画能力を植え付けます。より高レベルで複雑な指示に対し、次の行動を思考し、複数のステップに分解して実行するデータで訓練します。これにより、モデルは単なる要素認識から、主体的にタスクを遂行するエージェントへと進化し、より複雑な業務自動化への道を開きます。 この2段階訓練により、SmolVLM2-2.2Bという比較的小規模なモデルでも、GUI要素の認識ベンチマークで高い性能を達成しました。同社は、この成果の再現性を担保するため、データ処理ツール、統一されたデータセット、訓練済みモデルを全て公開しており、誰でも追試や応用開発が可能です。 今後の展望として、教師あり学習(SFT)だけでなく、強化学習(RL)や直接選好最適化(DPO)といった手法の活用が挙げられています。これらの手法により、エージェントが静的なデータから学ぶだけでなく、実環境でのインタラクションを通じて学習・改善する、より高度な能力の獲得が期待されます。

Gemini、対話型学習パートナー機能『Guided Learning』を発表

Googleは2025年9月23日、生成AI「Gemini」に新機能「Guided Learning」を追加したと発表しました。これは対話を通じて学習を支援するインタラクティブなパートナー機能です。単に答えを示すのではなく、質問やテストで理解度を確認しながら学習を進めます。個人の学習から専門スキルの習得まで、幅広い用途で深い知識の獲得を支援します。 新機能の最大の特徴は、答えではなく「プロセス」を重視する点です。複雑な問題を尋ねると、関連概念を解説し、ユーザーと共に解決へと導きます。これは表面的な知識ではなく、本質的な理解を促すための設計です。まさに、根気強いパーソナルチューターと言えるでしょう。 活用シーンは多岐にわたります。アップロードした資料から学習ガイドを生成したり、エンジニアのコードデバッグを対話形式で支援したりできます。語学学習や資格試験の準備など、個人のスキルアップから業務利用まで、ユーザーのペースに合わせて段階的に知識を深めることが可能です。 この機能の背景には、学習に特化してファインチューニングされたモデル群「LearnLM」があります。LearnLMは好奇心を刺激するなど、学習科学の原則において高い性能を示します。高品質な図表のデータベースやYouTube動画を引用し、視覚的でわかりやすい学習体験を提供します。 開発のきっかけは、昨年の「Learning Coach Gem」の成功です。ユーザーは単なる答えだけでなく、概念を理解するための「相棒」を求めていることが明らかになりました。プロンプトの専門知識がなくても、自然な対話で深い学びが得られるツールを目指して開発されました。 今回の新機能は、Googleの教育分野への大規模投資の一環です。学生向けGemini Proの無料提供や、AIスキル育成プログラムも同時に発表しました。「責任あるAIは学習を支援し生産性を高める強力なツールだ」と同社は強調し、教育分野でのAI活用を推進しています。 Googleは「教育エコシステムは変革期にある」と見ており、今後もAIで学習を支援するパートナーであり続ける計画です。今回の機能は、誰もが発見の喜びを感じ、知識を深めることを目指しています。ビジネスパーソンのリスキリングにも大きな影響を与える可能性があります。

Stability AI、AI安全対策を強化。年次透明性レポート公開

安全設計と実績値

学習データからの有害コンテンツ排除
モデル・APIの多層的な悪用防止
全生成AIモデル(100%)リスク評価
学習データからのCSAM検出は0%
NCMECへの不正利用報告は計13件

透明性とガバナンス

API生成コンテンツへのC2PAメタデータ付与
リリース前におけるレッドチーミングの継続実施
業界団体や法執行機関との連携強化

Stability AIは2025年9月、2024年4月から2025年4月までの期間を対象とした年次「インテグリティ透明性レポート」を公開しました。同社は、責任ある生成AI開発の取り組みとして、児童性的虐待素材(CSAM)の防止に重点を置き、具体的な安全対策と実績値を開示しています。透明性を通じて信頼を構築し、ガバナンス強化を目指す方針です。

同社の安全対策は、「データ」「モデル」「プラットフォーム」の三層で構成されています。特に学習データについては、社内開発およびオープンソースのNSFW分類器に加え、業界団体のCSAMハッシュリストを適用し、有害コンテンツを徹底的に排除しています。報告期間中、学習データからのCSAM検出は0%でした。

モデルのリリース前には、厳格なリスク評価手法である「レッドチーミング」を実施しています。Stable Diffusion 3を含む全生成AIモデル(100%)がCSAM/CSEM生成能力に関してストレス評価を受けました。有害な生成能力が特定された場合、リリース前に概念を除去するセーフティ・ファインチューニングが施されます。

プラットフォームAPIレベルでは、入力と出力の両方に対し、リアルタイムでのコンテンツフィルターを適用しています。既知のCSAMを検出・ブロック・報告するためのハッシュシステムも統合されています。これにより、AUP(許容利用ポリシー)違反の入出力を即座に阻止する多層的な防御を実現しています。

AIコンテンツの真正性を担保するため、Stability AIはAPIを通じて生成された画像動画音声C2PAメタデータを付与しています。このメタデータにはモデル名やバージョン番号が含まれ、AI生成物であることを特定可能にし、コンテンツの透明性向上に貢献します。

悪用防止のため、自動検出ツールと人間による審査を組み合わせたコンテンツモデレーション体制を敷いています。実際にCSAMに関連する試行が検出された場合、NCMEC(行方不明・搾取児童センター)へ迅速に報告を実施。報告期間中のNCMECへの報告総数は13件でした。

USA Todayが自社チャットボット導入、GoogleのAI概要に反撃

出版業界の危機感

Google AI Overviewでトラフィック激減
検索エンジン依存モデルの将来リスクを指摘
著作権侵害への数十億ドルの補償を要求

独自AI「DeeperDive」

Gannettが独自チャットボットDeeperDive発表
220紙以上の自社記事を回答ソースに限定
事実確認を重視し意見記事を除外

技術と収益戦略

開発はTaboolaと連携しOSSを活用
検索ボックスを代替し読者の関心を捕捉
将来的に購買支援エージェント化を目指す

米大手新聞社Gannett(USA Today Network)は、GoogleのAI概要(AI Overview)機能によるウェブトラフィック激減に対抗するため、独自AIチャットボット「DeeperDive」を導入しました。同社CEOのマイク・リード氏は、WIRED AI Power Summitにて発表し、AIがコンテンツを要約することで、出版社へのトラフィックフローが劇的に減少している現状を強く批判しました。この動きは、AIによるメディア業界の収益モデル破壊に対する具体的な反撃策として注目されています。

DeeperDiveは、USA Today Networkの220紙以上の出版物から得たジャーナリズム記事のみに基づいて読者の質問に答える、「AI回答エンジン」です。従来の検索ボックスを置き換え、ユーザーに直接的な回答と関連性の高い記事を提供します。これは、読者が外部のAI企業に行かずとも、信頼できる情報源内で完結させることを目的としています。

DeeperDiveの最大の特徴は、回答の事実正確性を重視している点です。同CEOは、意見記事は参照せず、「実際のジャーナリズム」のみを参照源とすることを強調しました。このツールは広告技術企業Taboolaと共同開発され、複数のオープンソースモデルファインチューニングして構築されています。

リードCEOは、GoogleAI Overviewが「10の青いリンク(従来の検索結果)」を経由するトラフィックを著しく妨害しているとの認識を示しました。この問題は業界全体に及び、SEO最適化に依存する従来のコンテンツ配信モデルに、将来的なリスクをもたらすと警鐘を鳴らしています。

メディア業界のリーダーたちは、AIがコンテンツを学習データとして使用することに対する数十億ドル規模の補償が必要だと主張しています。Condé Nastのロジャー・リンチCEOは、音楽業界がストリーミングサービスとライセンス契約を結んだ状況になぞらえ、AIモデルにとってコンテンツは最も重要なインプットであると訴えています。

GannettはDeeperDiveを通じて読者の関心や意図をより深く理解し、収益化に繋げることを期待しています。次のステップとして、読者の購買決定を支援するエージェント機能を探求する意向を示しています。同社の読者は元々購買意欲が高い層であり、新たな収益源としての可能性を見込んでいるとのことです。

AIブームが巨大企業を置き去りにする可能性

基盤モデルの価値変化

基盤モデルコモディティ化
事前学習の効果が鈍化
事後学習強化学習へ注目が移行

競争環境の変化

アプリケーション層での競争が激化
オープンソース代替案の台頭
低マージン事業への転落リスク

企業戦略の再構築

ファインチューニングUI設計が重要
基盤モデル企業の優位性は縮小
新たな競争優位性の模索が必要

AIブームが進む中、基盤モデルを開発する巨大企業が置き去りにされる可能性が浮上している。かつては「GPTラッパー」と軽視されたAIスタートアップが、特定タスク向けのモデルカスタマイズやインターフェース設計に注力し始めたからだ。

基盤モデルの価値が変化している背景には、事前学習のスケーリング効果が鈍化している事実がある。AIの進歩は止まっていないが、超大規模モデルの初期利益は減少し、事後学習強化学習が新たな進化の源泉となっている。

競争環境も変化している。スタートアップGPT-5ClaudeGeminiなど基盤モデルを互換性のある部品として扱い、ユーザーが気づかない間にモデルを切り替えることを前提に設計している。

この状況は、OpenAIAnthropicのような基盤モデル企業を低マージンのコモディティ事業のバックエンドサプライヤーに変えるリスクをはらんでいる。ある創業者はこれを「スターバックスにコーヒー豆を売るようなもの」と表現した。

もちろん、基盤モデル企業が完全に脱落するわけではない。ブランド力、インフラ、巨額の資金など持続的な優位性も存在する。しかし、昨年までの「より大きな基盤モデルを構築する」という戦略は魅力を失いつつある。

AI開発の速いペースを考えると、現在の事後学習への注目も半年後には逆転する可能性がある。最も不確実なのは、汎用人工知能への競争が医薬品や材料科学で新たなブレークスルーを生み出す可能性だ。

結局のところ、AIの価値は基盤モデル自体ではなく、それを活用するアプリケーションやユーザー体験に移行しつつある。企業はこの変化に適応し、新たな競争優位性を築く必要に迫られている。