Google、オンデバイスAI開発コンペの受賞者を発表

障害者支援とオフライン活用

視覚障害者向けウェアラブルAIが優勝
胸部カメラ映像をリアルタイム解析
認知障害者支援の完全オフライン動作
個人の発話特徴をローカル学習

警備・教育へのエッジ実装

警備カメラ映像の文脈的脅威判定
通信遮断地域での教育ハブ構築
ロボットJetson上での実装
詳細を読む

Googleは12月10日、オンデバイスAIモデル「Gemma 3n」を活用した開発コンペ「Impact Challenge」の受賞者を発表しました。600以上の応募から選出されたプロジェクトは、クラウドに依存しないエッジAIが、低遅延かつ高プライバシーで社会課題を解決する可能性を実証しています。

最優秀賞の「Gemma Vision」は、視覚障害者が胸部に装着したカメラ映像をAIが解析し、周囲の状況を伝えるウェアラブルアシスタントです。白杖を持つ手が塞がらないよう音声や小型コントローラーで操作でき、すべての処理をデバイス上で完結させることで、実用的な応答速度を実現しています。

2位の「Vite Vere Offline」は、認知障害者のために画像音声指示に変換する完全オフラインアプリです。3位の「3VA」は、脳性麻痺を持つデザイナー向けにピクトグラムを豊かな文章へ変換するシステムで、ローカル環境での追加学習により、個人の意図を正確に反映させることに成功しました。

そのほか、警備カメラの映像から脅威のみを文脈的に識別するシステムや、インターネット接続がない地域向けの教育用マイクロサーバーなど、多彩なプロジェクトが入賞しました。これらの事例は、AIが画面の中だけでなく、物理的な制約のある現場でいかに具体的価値を生み出せるかを示唆しています。