AI評価の新基準へ、Laude研究所が新助成プログラム始動

新助成の概要

Laude研究所が第一期採択者を発表
研究者向けアクセラレーター
資金・計算資源・開発を支援
成果として事業化やOSS化を要求

AI評価特化の採択例

ホワイトカラーAI向けベンチマーク
競争形式のコード評価フレーム
既存コードの最適化能力を評価
コマンドラインでのコーディング指標
詳細を読む

Laude研究所は11月6日、AIの科学と実践の進歩を目的とした新たな助成プログラム「Slingshots」の第一期採択プロジェクト15件を発表しました。このプログラムは、特にAIの能力を客観的に評価する手法の開発に重点を置いており、業界全体の技術水準向上を目指します。

「Slingshots」は、大学などの学術機関では得にくい資金、計算能力、製品開発支援を研究者に提供するアクセラレーターとして機能します。その見返りとして、採択者はスタートアップの設立やオープンソースのコードベース公開など、具体的な成果物を生み出すことが求められます。

今回の採択プロジェクトは、AI評価という困難な課題に強く焦点を当てています。AIモデルの性能が急速に向上する一方、その能力を正確かつ公平に測定する「ものさし」の確立が追いついていないのが現状です。本助成は、この重要な分野でのブレークスルーを促進することを狙いとしています。

具体的な採択例として、コーディング能力を評価する複数のプロジェクトが挙げられます。コマンドラインでのコーディング能力を測る「Terminal Bench」や、SWE-Benchの共同創設者が率い、競争形式でコードを評価する新しいフレームワーク「CodeClash」などが含まれます。

ビジネス領域での応用を測る試みも注目されます。コロンビア大学の研究者が提案する「BizBench」は、ホワイトカラー業務を行うAIエージェントのための包括的なベンチマークを目指します。また、既存コードの最適化能力を評価する「Formula Code」など、多様な切り口の研究が支援対象となりました。

「CodeClash」を率いるジョン・ボダ・ヤン氏は、「ベンチマークが特定企業に閉じたものになることを懸念している」と述べ、第三者による客観的な評価基準が技術進歩を促す上で不可欠だと強調します。今回の助成は、そうしたオープンな評価基盤の構築に貢献することが期待されています。