ディープラーニング(モデル学習手法・技術)に関するニュース一覧

MIT、メモリ積層でAI半導体の電力効率を劇的改善

データ移動の無駄を省く新構造

トランジスタとメモリを一体化し省エネ実現
既存回路の上に機能部品を積層可能に

低温製造を可能にする新材料

新材料「アモルファス酸化インジウム」を採用
150度の低温処理で下層回路を保護

AI計算の持続可能性に貢献

生成AIなど高負荷処理の消費電力を抑制
スイッチング速度10ナノ秒の高速動作

MITの研究チームは、既存の半導体回路上にトランジスタとメモリを積層する新しい製造技術を開発しました。この技術は、生成AIやディープラーニングなどのデータ集約型計算における電力消費を大幅に削減し、処理能力を向上させる可能性を秘めています。

従来のチップでは、計算を行うトランジスタとデータを保存するメモリが分かれており、データ移動によるエネルギーロスが課題でした。今回の手法は、配線層である「バックエンド」に機能素子を直接形成することで、この移動距離を劇的に短縮します。

ブレークスルーの鍵は、新材料「アモルファス酸化インジウム」の採用です。通常のシリコン積層には高温が必要で既存回路を破壊してしまいますが、新材料は150度という低温で処理可能なため、下層へのダメージを防ぎつつ高密度な積層を実現しました。

研究チームは製造プロセスを最適化し、わずか2ナノメートルの極薄層でも欠陥を最小限に抑えることに成功しました。強誘電体材料を用いてメモリ機能を統合したこの極小トランジスタは、10ナノ秒での高速スイッチングと低電圧動作を両立しています。

AIの普及により計算需要と電力消費が急増する中、本技術は持続可能なコンピューティング基盤として期待されます。研究チームは今後、このバックエンド・プラットフォームを単一回路へ統合し、さらなる性能限界の突破を目指すとしています。

NVIDIA、博士学生10名へ最大6万ドルの研究助成を発表

次世代リーダーの発掘と支援

博士課程学生10名へ最大6万ドルを授与
事前の夏季インターンシップ参加権
25年続く名門フェローシップ

注目の研究トレンド

物理AIロボティクスの実用化
持続可能な学習基盤と効率化
スタンフォード大などトップ校が選出

NVIDIAは2025年12月4日、2026-2027年度の大学院フェローシップ受賞者を発表しました。計算科学の革新を担う博士課程学生10名に対し、最大6万ドルの研究資金提供とインターンシップの機会を付与します。

本制度は25年の歴史を持ち、NVIDIAの技術に関連する卓越した研究を支援するものです。世界中から選抜された学生たちは、自律システムやディープラーニングなど、コンピューティングの最前線で研究を加速させます。

今回の受賞研究では、物理AIやロボティクスなど実世界への応用が目立ちます。インターネット上のデータから汎用的な知能を構築する試みや、人間とAIエージェントが円滑に協調するためのインターフェース研究が含まれます。

また、AIの信頼性と効率性も重要なテーマです。プロンプトインジェクション攻撃に対するセキュリティ防御や、エネルギー効率の高い持続可能なAIトレーニング基盤の構築など、社会実装に不可欠な技術が含まれます。

受賞者はスタンフォード大学やMITハーバード大学など、世界トップレベルの研究機関に所属しています。彼らは奨学生としてだけでなく、NVIDIAの研究者と共に次世代の技術革新をリードする役割が期待されています。

AWS流、LLM分散学習クラスター構築・検証術

分散学習の複雑な設定

高性能GPUインスタンスの精密設定
ネットワークとストレージの複雑性
バージョン不整合による性能劣化リスク

構築・検証の主要ステップ

DLCベースのDockerイメージ構築
EKSでのGPUクラスター起動
GPU・EFA等必須プラグイン導入
ヘルスチェックによる設定検証
サンプルジョブでの最終動作確認

アマゾン ウェブ サービス(AWS)は、大規模言語モデル(LLM)の分散学習に不可欠なインフラ構築を効率化するため、Amazon EKSとAWS Deep Learning Containers(DLC)を用いたクラスターの構築・検証手順を公開しました。この体系的なアプローチは、複雑な設定ミスを防ぎ、開発チームがモデル性能の向上に集中できる環境を実現します。AI開発の生産性を高めたい経営者エンジニアにとって、必見の内容と言えるでしょう。

最新のLLM開発では、Meta社のLlama 3が16,000基のGPUを使用したように、膨大な計算資源が求められます。しかし、高性能なGPUインスタンスは、ネットワークやストレージ、GPUの構成が極めて複雑です。わずかな設定ミスが性能の大幅な低下やエラーを招き、プロジェクトの遅延やコスト増大に直結する大きな課題となっています。

この課題に対し、AWSは解決策の核として「AWS Deep Learning Containers(DLC)」の活用を推奨しています。DLCは、CUDAやNCCLといった互換性が重要なライブラリ群を最適化した状態で提供するコンテナイメージです。これにより、バージョン不整合のリスクを根本から排除し、開発チームはインフラの細かな調整から解放され、開発を迅速に開始できます。

具体的な構築手順は、まずDLCを基盤にカスタムDockerイメージを作成することから始まります。次に、Amazon EKS(Elastic Kubernetes Service)を用いてGPU対応クラスターを起動。その後、GPUや高速ネットワーク(EFA)、ストレージ(FSx for Lustre)を連携させるための各種プラグインを導入し、計算、通信、データ保管が三位一体となった本番環境レベルの基盤を完成させます。

インフラ構築後の検証プロセスもまた、成功の鍵を握ります。GPUドライバーの確認、複数ノード間の通信テスト、そして小規模なサンプル学習ジョブの実行といった段階的なヘルスチェックが不可欠です。これにより、大規模な学習を開始する前に問題を特定し、高価なGPUリソースと時間の浪費を未然に防ぐことが可能になります。

この体系的な手法を導入することで、企業はインフラ管理の負担を大幅に軽減し、エンジニアをモデル開発という本来の価値創出業務に集中させることができます。結果として、AI開発の生産性と成功確率が向上し、市場における企業の競争力強化に大きく貢献するでしょう。

AWS、カスタムML環境と厳格な統制を両立する新手法を発表

Amazon Web Services(AWS)は、企業がカスタム構築した機械学習(ML)環境の柔軟性を維持しつつ、MLライフサイクル全体のガバナンスを強化する新手法を発表しました。多くの企業はコンプライアンスや独自アルゴリズムの最適化といった特殊な要件から、標準プラットフォームではなく独自の開発環境を構築します。しかし、こうした環境はMLライフサイクル管理の複雑化という課題を抱えていました。 この課題を解決するのが、AWS Deep Learning Containers (DLCs) とAmazon SageMakerのマネージドMLflowの統合です。DLCsはTensorFlowやPyTorchなどのフレームワークが最適化されたDockerコンテナを提供し、特定の要件に合わせた開発環境の構築を容易にします。これにより、開発者インフラ構築の手間を省き、モデル開発に集中できます。 一方、SageMakerのマネージドMLflowは、実験のパラメータ、メトリクス、生成物を自動で記録し、モデルの系統を完全に追跡します。これにより、インフラ維持の運用負荷を軽減しつつ、包括的なライフサイクル管理を実現します。誰が、いつ、どのような実験を行ったかを一元的に可視化・比較することが可能になるのです。 具体的な利用例として、Amazon EC2インスタンス上でDLCを実行し、モデルのトレーニングを行います。その過程で生成される全てのデータはマネージドMLflowに記録され、モデル成果物はAmazon S3に保存されます。開発者はMLflowのUIから、各実験の結果を直感的に比較・分析できます。 この統合の最大の利点は、モデルがどの実験から生まれたのかという来歴が明確になり、監査証跡が確立される点です。企業は、柔軟なカスタム環境でイノベーションを加速させながら、MLライフサイクル全体で高いガバナンスとコンプライアンスを維持できるようになります。本手法の詳細な実装手順やコードサンプルは、AWSが公開するGitHubリポジトリで確認できます。

Nvidia追撃のGroqが7.5億ドル調達 AI推論特化LPUで69億ドル評価へ

資金調達と企業価値

新規調達額は7.5億ドルを達成
ポストマネー評価額69億ドルに到達
1年間で評価額2.8倍に急伸
累計調達額は30億ドル超と推定

技術的優位性

NvidiaGPUに挑む独自チップLPUを採用
AIモデル実行(推論)特化の高性能エンジン
迅速性、効率性、低コストを実現
開発者200万人超が利用、市場浸透が加速

AIチップベンチャーのGroqは先日、7億5000万ドルの新規資金調達を完了し、ポストマネー評価額69億ドル(約1兆円)に到達したと発表しました。これは当初予想されていた額を上回る結果です。同社は、AIチップ市場を支配するNvidiaGPUに対抗する存在として、推論特化の高性能なLPU(言語処理ユニット)を提供しており、投資家の高い関心を集めています。

Groqの核となるのは、従来のGPUとは異なる独自アーキテクチャのLPUです。これは、AIモデルを実際に実行する「推論(Inference)」に特化して最適化されており、推論エンジンと呼ばれます。この設計により、Groqは競合製品と比較して、AIパフォーマンスを維持または向上させつつ、大幅な低コストと高効率を実現しています。

Groqの技術は開発者や企業向けに急速に浸透しています。利用する開発者の数は、わずか1年で35万6000人から200万人以上へと急増しました。製品はクラウドサービスとして利用できるほか、オンプレミスのハードウェアクラスターとしても提供され、企業の多様なニーズに対応できる柔軟性も強みです。

今回の調達額は7.5億ドルですが、注目すべきはその評価額の伸びです。Groq評価額は、2024年8月の前回の資金調達時(28億ドル)からわずか約1年で2.8倍以上に膨らみました。累計調達額は30億ドルを超えると推定されており、AIインフラ市場における同社の将来性に、DisruptiveやBlackRockなどの大手が確信を示しています。

創業者のジョナサン・ロス氏は、GoogleTensor Processing Unit(TPU)の開発に携わっていた経歴を持ちます。TPUGoogle CloudのAIサービスを支える専門プロセッサであり、ロス氏のディープラーニング向けチップ設計における豊富な経験が、Groq独自のLPU開発の基盤となっています。

NVIDIAが英国の「AIメーカー」戦略を加速 物理AI・創薬・ロボティクス分野で広範に連携

英国の国家AI戦略を支援

英国のAI機会行動計画を後押し
世界クラスの計算基盤への投資
AI採用を全経済分野で推進
AIユーザーでなくAIメーカーを目指す

重点分野での協業事例

スパコンIsambard-AI」で基盤構築
ロボティクス:自律走行、製造、ヒューマノイド開発
ライフサイエンス:AI創薬デジタルツインを活用

NVIDIA英国のAIエコシステムとの広範なパートナーシップを強調し、英国の国家戦略である「AIメーカー」としての地位確立を強力に支援しています。ジェンスン・ファンCEOの英国訪問に際し、物理AI、ロボティクス、ライフサイエンス、エージェントAIなど最先端領域における具体的な協業事例が公表されました。

英国のAI基盤強化の核となるのは、NVIDIA Grace Hopper Superchipsを搭載した国内最速のAIスーパーコンピューター「Isambard-AI」です。これにより、公的サービスの改善を目指す独自の多言語LLM(UK-LLM)や、早期診断・個別化医療に向けた医療基盤モデル(Nightingale AI)など、重要な国家プロジェクトが推進されています。

特に物理AIとロボティクス分野での応用が加速しています。Extend Roboticsは製造業向けに安全なロボット遠隔操作システムを開発。Humanoid社は倉庫や小売店向けの汎用ヒューマノイドロボットを開発しており、いずれもNVIDIAのJetsonやIsaacプラットフォームが活用されています。

ライフサイエンス分野では、AIによる創薬の加速が目覚ましいです。Isomorphic LabsはAI創薬エンジンを構築し、英国CEiRSIはNVIDIA技術を用いて複雑な患者のデジタルツインを作成。これにより、大規模かつ多様な患者集団に対する新しい治療法のテストを可能にしています。

エージェントAIおよび生成AIのイノベーションも活発です。Aveniは金融サービスに特化したLLMを開発し、コンプライアンスを確保しながら顧客対応やリスク助言を行うエージェントフレームワークを構築しました。ElevenLabsやPolyAIは、超リアルな音声生成や、大規模な顧客サポート自動化を実現しています。

また、AIスキルギャップ解消への取り組みも重要です。技術ソリューションプロバイダーのSCANは、NVIDIA Deep Learning Instituteと連携し、コミュニティ主導型のトレーニングプログラムを展開しています。これにより、英国全土でAIや専門的なワークロードに対応できる人材育成が進められています。