AIエージェント構築・検証・微調整の最前線

自律エージェントの精度を高める新アプローチ

ReplitのAgent 3がREPLベース検証で200分以上の自律動作を実現
ブラウザ自動化とコード実行を組み合わせ「見せかけ実装」を自動検出
IBM製オープンソースフレームワークCUGAがHugging Face Spacesに統合
AppWorldベンチマーク1位・WebArena上位を達成した設定可能な汎用エージェント
プランナー/エグゼキューター分離とコードアクト方式で幻覚を抑制
MCP・OpenAPI・LangChain対応のマルチツール連携機能を提供

エージェントAIを支えるデータ基盤と軽量ファインチューニング

Twilioレポートで54%の消費者がAIの文脈保持の欠如を指摘
会話型AIには静的CDPではなくリアルタイム会話メモリが必要と提言
NVIDIAがNemotron 3ファミリーをエージェントAI微調整向けに発表
Unslothを使い低メモリNVIDIA GPULoRA/QLoRAによる効率的なファインチューニングが可能

ReplitはAgent 3の開発において、コードが「動いているように見えるだけ」の問題、いわゆる「ポチョムキン実装」に悩まされてきました。この課題を解決するためREPL(対話型実行環境)とブラウザ自動化を組み合わせた独自の検証システムを構築し、エージェントが生成したコードを実際に実行・操作して機能の実在性を確認できるようにしました。

この仕組みによりAgent 3は200分以上にわたって自律的にタスクを継続でき、単に見た目を整えるだけの実装を自動的に検出・修正するサイクルを回せるようになりました。自己テスト型の検証ループはエージェント品質保証に新たな基準を示しています。

IBMが開発したCUGA(Configurable Generalist Agent)はオープンソースの汎用AIエージェントフレームワークです。AppWorldベンチマークで1位、WebArenaでも上位を記録しており、WebやAPIを跨ぐ複雑なマルチステップタスクを高い精度でこなします。

CUGAは現在Hugging Face Spacesに統合され、オープンモデルと組み合わせて誰でも試せる環境が整いました。推論モードをコスト・レイテンシに応じて切り替えられる柔軟な設計が特徴で、MCP・OpenAPI・LangChain経由の多様なツール連携にも対応しています。

Twilioの調査によると、消費者の54%が「AIは過去のやりとりをほとんど覚えていない」と感じており、AIから人間担当者へ引き継がれる際に全文脈が共有されると答えたのはわずか15%でした。エージェントAIが真に機能するには、リアルタイムで携帯可能な会話メモリが不可欠です。

この問題を解決するには、従来のCRMやCDPを使い続けるのではなく、会話メモリをコミュニケーションインフラの内部に組み込む必要があると指摘されています。Twilioはこうした次世代の顧客データ基盤の構築を推進しています。

NVIDIAはNemotron 3ファミリーを発表し、エージェントAIの微調整に最適化されたオープンモデルとライブラリを提供しました。GeForce RTXラップトップからDGX Sparkまで幅広いNVIDIA GPUで動作します。

Unslothを使ったLoRA/QLoRAによるファインチューニングは、フルパラメータ更新より少ないメモリと時間でモデルを特定タスクへ特化させる手法です。製品サポートや個人アシスタントなどの用途で小型言語モデルの精度を高める実用的なアプローチとして注目されています。

NvidiaがNemotron 3公開とSchedMD買収で事業拡大

Nemotron 3の特徴と技術革新

ハイブリッドMoEアーキテクチャを採用
Nano・Super・Ultraの3サイズ展開
100万トークンコンテキスト長対応
前世代比最大4倍のトークンスループット向上
学習レシピとデータセットを完全オープン公開
強化学習基盤NeMo Gymを同時リリース
Accentureら大手企業がアーリーアダプターとして参加

SchedMD買収とH200中国展開

HPC向けジョブスケジューラSlurmの開発元を買収
Slurmはオープンソースとして継続提供
H200チップ中国向け輸出が米政府承認
中国大手企業から大規模発注が殺到
H200の追加生産拡大を検討中
中国政府の輸入可否判断が今後の焦点

NvidiaはNemotron 3モデルファミリーを公開しました。Nano(300億パラメータ)、Super(1000億)、Ultra(5000億)の3サイズで構成され、ハイブリッドMamba-TransformerのMoEアーキテクチャを採用しています。

Nemotron 3 Nanoは同規模モデルと比較して最大3.3倍のスループットを実現し、100万トークンのコンテキストウィンドウに対応します。推論コストの削減と精度向上を両立した設計です。

Nvidiaはモデルの重み、学習レシピ、事前学習事後学習データセットをすべて公開しています。公開された事後学習データセットは既存の最大規模のものより2.5倍大きく、業界最大規模となります。

モデル訓練に使用した強化学習基盤NeMo Gymもオープンソースとして公開されました。数学コーディング、ツール利用など10以上のRL環境が含まれており、開発者が独自環境を構築することも可能です。

Nvidiaはと同日、HPC向けオープンソースのワークロード管理システムSlurmを開発するSchedMDの買収を発表しました。Slurmは世界のスーパーコンピュータTop500のうち半数以上で採用されている実績ある基盤ソフトウェアです。

SchedMD買収によりNvidia半導体からモデル、そしてHPCソフトウェアスタックまでをカバーする垂直統合を強化します。SlurmはNvidiaハードウェア上での最適化が進む一方、ベンダー中立性も維持されます。

米政府はNvidiaのH200チップ中国へ輸出することを承認しました。H200は前世代Hopperシリーズの最高性能GPUで、中国ではこれまで販売が制限されていました。

承認を受けてAlibabaやByteDanceなど中国大手企業がH200の大口注文を検討しており、Nvidiaは需要に応えるため生産拡大を検討しています。ただし中国政府側の輸入許可判断が依然として焦点です。

一方でNvidiaにとってのリスクも存在します。中国政府は国産チップの活用を推進しており、長期的には中国AIモデルが自国製シリコンに依存する方向へシフトする可能性があります。

LLM訓練の新知見:バイト列モデルとエンタープライズ学習の教訓

Ai2が公開したバイト列言語モデル「Bolmo」の概要と特徴

Allen Institute for AIがBolmo 7BとBolmo 1Bを発表
既存のOlmo 3チェックポイントを「バイト化」する2段階訓練アプローチ
トークナイザー不要でUTF-8バイトを直接処理する設計
多言語・ノイズ耐性・エッジ展開に適したオープンバイト列モデル
CUTE・EXECUTEなどの文字ベンチマークでOlmo 3ベースモデルを上回る性能
チェックポイント・コード・論文をすべて公開し再現可能なブループリントを提供

韓国スタートアップMotifが示すエンタープライズLLM訓練の4つの教訓

Motif-2-12.7Bが独立ベンチマークで通常版GPT-5.1を上回る成績を記録
合成推論データは生成元の推論スタイルが一致しないと性能を逆に低下させる
64Kコンテキスト訓練はハイブリッド並列・アクティベーションチェックポイントを前提とする設計が必須
RLFT(強化学習ファインチューニング)は難易度フィルタリングと軌跡の再利用で安定化
メモリがボトルネックとなるためカーネルレベルの最適化が訓練の可否を左右
訓練設計の規律こそが推論性能を決定するとarXiv論文で実証

Allen Institute for AI(Ai2)は、トークナイザーを使わずにUTF-8バイト列を直接処理するバイト列言語モデルの新ファミリー「Bolmo」を公開しました。Bolmo 7BとBolmo 1Bの2モデルを提供しており、同社はこれらを「初の完全オープンなバイト列言語モデル」と位置付けています。

Bolmoの訓練は既存のOlmo 3チェックポイントを流用する2段階方式を採用しています。第1段階では変換器本体を凍結してローカルエンコーダ・デコーダと境界予測器のみを98億トークンで訓練し、第2段階でモデル全体を解凍してさらに学習させます。ゼロから訓練するよりも大幅にコストを削減できます。

バイト列モデルはスペルミスや低資源言語、非標準テキストに強く、モデレーション・エッジ展開・多言語アプリケーションに適しています。Ai2はチェックポイント・コード・論文をすべて公開しており、組織が独自のバイト列モデルをOlmoエコシステム上に構築できる再現可能なブループリントを提供しています。

韓国のAIスタートアップMotif Technologiesは、12.7Bパラメータの推論特化モデル「Motif-2-12.7B-Reasoning」を公開し、独立ベンチマーク機関Artificial Analysisにより韓国発モデルとして最高性能と認定されました。通常版GPT-5.1をも上回る結果が注目を集めています。

Motifがarxivで公開した白書には、エンタープライズチームがLLM訓練で直面する課題への実践的な教訓が詳述されています。特に重要なのは、フロンティアモデルで生成した合成データが必ずしも転用可能ではないという点です。推論トレースの形式・冗長性・ステップ粒度が目標モデルと一致しないと、性能が低下することが実測で示されています。

コンテキスト訓練については、トークナイザーや保存処理の調整だけでは対応できず、ハイブリッド並列化とシャーディング戦略、積極的なアクティベーションチェックポイントを訓練スタック設計の段階から組み込む必要があります。後付けで長コンテキスト対応を追加しようとすると、再訓練の高コストや不安定なファインチューニングを招くリスクがあります。

強化学習ファインチューニング(RLFT)は、難易度フィルタリングなしに報酬訓練をスケールさせると性能退行やモード崩壊が起きやすいとMotifは指摘しています。通過率が特定範囲内のタスクのみを選別し、軌跡の複数ポリシー間での再利用とクリッピング範囲の拡大により訓練の安定性を確保しています。

メモリ制約はコンピュート以上に訓練の可否を左右することが多いとMotifは強調しています。カーネルレベルの損失関数最適化によってRLのメモリ圧力を軽減する手法は、共有クラスターや規制対応環境で独自LLMを構築する企業にとって特に参考になります。

両記事が共通して示すのは、LLM訓練の競争優位がモデル規模だけでなく、訓練設計・データ整合・インフラ選択という地道な工学的判断に宿るという点です。Ai2とMotifのいずれもオープンな情報公開を通じてコミュニティに再現可能な知見を提供しており、エンタープライズAIチームの実務判断に直結する内容となっています。

AI投資ブーム継続、消費者向けスタートアップの持続力に懐疑論も

相次ぐ大型資金調達

Lightspeedが同社史上最大の90億ドルを調達、AI特化投資家として165社超を支援
OpenAI出資のバイオテックChai DiscoveryがシリーズB 1億3,000万ドルを調達、評価額13億ドルに到達
AI動画向け音響スタートアップMireloがIndex・a16zから4,100万ドルのシード調達
AIコンパニオンアプリ「Momo」のFirst Voyageが250万ドル調達、習慣形成市場に参入

消費者AI vs. エンタープライズAI:VCの視点

VC各社「生成AI登場から3年、消費者向け特化アプリはいまだ定着せず」と分析
動画音声画像アプリはプラットフォーム側の機能統合で競争優位を失いやすい構造
「スマートフォン黎明期の2009〜2010年相当」——消費者AIが本格普及する転換点が近いとの見方も
AIで最も稼いでいるのはモデル企業でなくデータ供給・仲介事業者——Mercorが年商5億ドルを達成

Lightspeed Venture Partnersは創業25年で過去最大となる総額90億ドルのファンドを組成しました。2021年のバブル崩壊後、LPは実績ある一部の有力VCへ資本を集中させており、Lightspeedはその恩恵を受けた格好です。

AIバイオテクのChai Discoveryは、OpenAIをはじめGeneral CatalystやThrive Capitalらが参加するシリーズBで1億3,000万ドルを調達しました。同社は創薬向けの基盤モデル「Chai 2」を開発しており、評価額は13億ドルに達しています。

ベルリン発のMireloは、AI生成動画に同期した効果音を自動付与する技術に特化したスタートアップです。IndexとAndreessen Horowitzが共同でリードした4,100万ドルのシードラウンドを獲得し、SonyやTencent、ElevenLabsなど大手との競争に備えます。

AIコンパニオンアプリ「Momo」を手がけるFirst Voyageはa16z speedrunなどから250万ドルを調達しました。ユーザーがデジタルペットを世話することで習慣形成を促す仕組みで、すでに200万件超のタスクが作成されています。

TechCrunchのStrictlyVCイベントでは、VCが消費者向けAIスタートアップの持続力について議論しました。Goodwater CapitalのCo-founder Chi-Hua Chienは「多くの初期AIアプリはプラットフォームに吸収されてしまった」と指摘し、スマートフォン普及初期と同様の「安定化期間」が必要だと述べています。

一方で、AIエコシステムの中で最も急速に収益を伸ばしているのはモデル企業ではなく、AIトレーニングデータの供給・仲介を担う事業者だという見方も広がっています。Mercorは年商5億ドルを達成し、「史上最速の成長企業」を自称するに至りました。

今回の一連の動向は、生成AI投資が依然として活況である一方、勝者が絞られつつあることを示しています。大型VCへの資本集中と、ビジネスモデルの持続性を重視する投資判断の変化が、次のAIスタートアップ世代の姿を規定していくと考えられます。

企業AIのデータ保護と環境報告を革新する二つの実践

トークン化がデータセキュリティの新標準に

Capital One Softwareのトークン化技術が注目を集める
機密データを価値のない代替トークンに変換し漏洩リスクを排除
暗号化と異なり、元データが外部に存在しない構造的な安全性
**Databolt**はボールトレスで毎秒400万トークンを生成可能
AIモデルや分析基盤でもトークンをそのまま活用できる
HIPAAなど規制対応しながらデータをモデリングに再利用可能
セキュリティと活用の両立が企業のAI推進を加速させる

GoogleがAIサステナビリティ報告プレイブックを公開

2年間の環境報告AI活用ノウハウをオープンソース化
プロセス監査・プロンプトテンプレート・実例を網羅したツールキット
GeminiNotebookLMを用いた検証・照会対応の具体例を提供
断片化したデータと労働集約的なプロセスの課題を解消
企業の透明性向上と戦略的業務へのリソース集中を支援

Capital One Softwareのラビ・ラグー社長は、トークン化が現代のデータセキュリティにおける最先端の手法であると主張しています。トークン化は機密データを、元データとは紐付かない代替トークンに変換するため、攻撃者がトークンを入手しても実際のデータには到達できません。

暗号化との根本的な違いは、暗号化では元データが暗号化された状態で外部に存在し続けるのに対し、トークン化では元データがデジタルヴォールト内に厳格に管理されている点にあります。この構造が、ブルートフォース攻撃やキー漏洩リスクを排除します。

Capital Oneは自社の1億人超の顧客データ保護で10年以上トークン化を実践し、月に1000億回以上の処理実績を持ちます。このノウハウを商用化したDataboltは、ヴォールトなしで毎秒400万トークンを生成でき、AIが求める高速・大規模処理に対応します。

トークン化の大きな利点は、データ保護と活用の両立にあります。トークンは元データの構造と順序性を保持するため、HIPAA対象の医療データでも規制準拠しながら価格モデル構築や遺伝子研究に活用できます。これはAIエージェントによるデータ活用の障壁を取り除く重要な特性です。

一方Googleは、2年間の環境報告へのAI統合から得た知見を「AIサステナビリティ報告プレイブック」として公開しました。企業が直面するデータの断片化や手作業中心のプロセスという課題に対し、実践的なツールキットを提供しています。

プレイブックにはプロセス監査の体系的フレームワーク、一般的な業務向けプロンプトテンプレートのスターターパック、そしてGeminiNotebookLMを使った実世界の活用例が含まれています。これにより、企業は持続可能性報告の効率化と質向上を同時に実現できます。

両社の取り組みに共通するのは、AI活用を加速させるための基盤整備という視点です。Capital OneはデータセキュリティAI活用の前提条件として整備し、Googleはサステナビリティ報告という具体的なユースケースでAI導入の知見を共有しています。企業がAIを本番環境で安心して活用するためには、こうしたデータガバナンスと報告プロセスの高度化が不可欠となっています。

Vercel v0を使いこなすプロンプト術とNotion連携

効果的なプロンプトの3要素

プロダクト表面・利用文脈・制約の3要素が高品質な出力の鍵
具体的な指定で生成時間を30〜40%短縮
曖昧なプロンプトは余計なコードと修正コストを招く
「誰が・いつ・何を決めるために使うか」を明示することが重要
制約を詳しく書くほどコードがクリーンになる傾向
テスト比較でコンテキストあり版はコード行数を最大152行削減

NotionとのMCP連携で実現するチームワークフロー

NotionMCPツールとしてv0に接続し、既存ドキュメントを活用
PRDや仕様書からプロトタイプをワンプロンプトで生成可能
Notionデータベースを元にしたダッシュボード・内部ツールを即座に構築
書き込みアクセスにより週次サマリーをNotionページへ直接反映
複数ツール間の断片化した作業を単一ワークフローに統合
スターターテンプレートを活用して即日導入が可能

VercelのAI UI生成ツール「v0」は、プロンプトの書き方次第で出力品質が大きく変わります。同社が公開したガイドによれば、良いプロンプトには「プロダクト表面」「利用文脈」「制約とテイスト」という3つの要素が必要です。

プロダクト表面とは、構築するコンポーネントや機能の具体的な列挙を指します。「ダッシュボード」と書くだけでなく、表示データや操作内容を詳細に記述することで、v0が不要な機能を推測せず必要な機能を省かないようになります。

利用文脈では、誰がいつどんな目的でそのUIを使うかを明示します。ユーザーの役職、技術習熟度、使用デバイス、確認頻度などを書くことで、v0はUXを自動的に最適化します。

制約とテイストはv0の「デフォルトの良さ」をさらに引き上げる要素です。スタイル好み、デバイス想定、カラーコード規則などを記述すると、生成コードの行数が減り保守性が上がります。

同社の比較テストでは、コンテキストを付与したプロンプトが19秒速く、152行少ないコードを生成し、機能も完全に動作したと報告されています。文脈なし版は検索カートが未実装でレスポンシブにも対応していませんでした。

一方、NotionとのMCP統合では、チームのワークスペースをv0に安全に接続し、既存のPRDやデータベースを根拠として出力を生成できます。NotionデータベースからイベントKPIダッシュボードを数秒で構築した実例も紹介されています。

書き込みアクセスにより、v0が生成したサマリーや指標をNotionページへ直接書き戻すことも可能です。これにより、複数ツールを往復する非効率な作業が一連のプロンプト操作に集約されます。

統合の開始はv0プロジェクト内でNotion MCPを有効化してワークスペースを接続するだけです。公式スターターテンプレートも提供されており、自分のページやデータベースに合わせてカスタマイズできます。

MITが計算生物学で2つの成果を発表

深層学習でショウジョウバエの細胞発生を予測

MITチームが新たな深層学習モデルを開発
ショウジョウバエの胚発生を細胞単位・分単位で予測
「デュアルグラフ」構造で点群と泡モデルを統合
約5,000個の細胞の挙動を90%の精度で再現
将来的にゼブラフィッシュやマウスへの応用を想定
喘息など早期疾患の細胞パターン検出にも期待

ゲノム言語モデルで微生物の化学多様性を解析

MIT教員Yunha Hwangが計算×生物学の研究を推進
地球上の生物種の99.999%を占める微生物に着目
既知遺伝子の1%未満しか機能が実験で検証済み
ゲノム言語モデルでDNA配列からタンパク質機能を推定
タンパク質の文脈(前後のゲノム領域)を考慮した解析
炭素固定・新素材・感染症対策への応用を展望

MITの研究者たちが、計算手法と深層学習を生物学に応用した2つの成果を2025年12月に相次いで発表しました。いずれもこれまで解析が困難だった複雑な生命現象に、AIを用いて迫る試みです。

最初の研究では、Ming Guo准教授らのチームがショウジョウバエの初期胚発生を細胞レベルで予測する深層学習モデルを開発し、学術誌『Nature Methods』に発表しました。

このモデルは細胞を点群と泡の両方として同時に表現する「デュアルグラフ」構造を採用しています。細胞の位置・接触状態・折り畳み・分裂などの幾何学的特性を高精度に捉えることができます。

ミシガン大学が撮影した高解像度タイムラプス動画を用いて学習を行い、約5,000個の細胞それぞれの1時間にわたる挙動を90%の精度で予測することに成功しました。

研究チームはこの手法を他の生物種に拡張し、喘息や癌といった早期疾患に特有の細胞動態パターンの発見を目指しています。データの質が今後の応用拡大における主なボトルネックだと研究者らは述べています。

もう一つの研究は、MIT生物学部とEECSの兼任教員として着任したYunha Hwang助教によるものです。極限環境に生息する微生物のゲノムを計算的に解析する研究に取り組んでいます。

Hwang助教はDNAを「言語」として扱うゲノム言語モデルを開発し、実験室で培養できない微生物の機能をインシリコで推定する手法を研究しています。タンパク質の機能を単独ではなくゲノム上の前後文脈とともに解釈する点が特徴です。

微生物は地球上の炭素固定や栄養循環を担う重要な存在であり、その代謝能力を理解することは気候変動対策や新素材・医薬品の開発に直結します。計算生物学はこの膨大な「微生物の暗黒物質」を解き明かす鍵と位置づけられています。

AI音楽クローンとオープンソースへの反発が拡大

ミュージシャンたちの怒りと対抗措置

Spotifyに偽AI楽曲が大量出現、アーティストが猛反発
King GizzardやBearlieらが「本当に終わりだ」と絶望的コメント
Deezerでは毎日5万件のAI生成楽曲が登録される深刻な実態
Jorja SmithのAIクローン曲が話題となり、レーベルが損害賠償請求
iHeartRadioがAI合成ボーカル楽曲を一切放送しない方針を表明
ミュージシャン組合がストリーミング収益の人間限定配分法案を推進

オープンソースとウェブコンテンツの権利防衛

GNOMEがAI生成コードで作られた拡張機能の公開を全面禁止
AIツール補助は認めつつ、主にAI生成のコードは審査で却下
Creative CommonsがAIクロール課金制度への慎重な支持を表明
Cloudflareなどが推進するペイ・トゥ・クロール実装の原則を提示
中小パブリッシャーが大手と異なりAI学習利用交渉力を持てない問題
公益研究や教育機関へのアクセス保護を条件に制度設計を求める声

ミュージシャンたちのAIクローン楽曲への怒りが、2025年末にかけて一気に沸騰しています。SpotifyやDeezerなどの主要ストリーミングサービスに、実在アーティストを装ったAI生成楽曲が無断でアップロードされる事件が続発しており、被害を受けたアーティストたちは「最悪だ」「恥知らずだ」「全くのゴミだ」と強い言葉で非難しています。

アンビエント音楽の先駆者ウィリアム・バシンスキーのSpotifyページには、彼の作風とは全く異なるレゲトン曲が掲載されるという事態が発生しました。バシンスキー本人は「全くのゴミだ。混乱も極まれりだ」とThe Vergeに語り、自身のレーベルと販売代理店が監視を続けていることに救いを求めています。

ロックバンド「キング・ギザード・アンド・ザ・リザード・ウィザード」のフロントマン、スチュ・マッケンジーは、AIなりすまし事件に対して「私たちは本当に終わりだ」と語り、怒りと諦念が入り混じった反応を示しました。解散中のバンド「Here We Go Magic」も、AIによって「復活」させられるという不本意な経験を強いられています。

AIカントリー楽曲「Breaking Rust」はBillboardのカントリーデジタル楽曲セールスチャートで首位を獲得し、「AIが首位」という誤解を招く見出しが拡散しました。しかしこのチャートはiTunes購入数を測定するもので、わずか3,000件の購入で首位になれるニッチな指標です。背後にいる人物が購入を操作した可能性も指摘されています。

GNOMEプロジェクトは、GNOME Shell拡張機能ストアのレビューガイドラインを更新し、「AIが生成した拡張機能は認めない」という新たな条項を追加しました。開発補助ツールとしてのAI使用は認めつつも、コードの大半がAIによって書かれていることが認められれば申請は却下されます。オープンソースコミュニティでの品質管理開発者の主体性を守る姿勢の表れです。

Creative Commonsは、AIクローラーがウェブコンテンツを収集するたびに対価を支払う「ペイ・トゥ・クロール」制度への慎重な支持を表明しました。Google検索などの従来のウェブクローリングとは異なり、AI技術はユーザーをサイトに誘導しないため、従来の見返りが失われているという問題意識が背景にあります。

Creative Commonsは支持に際し、いくつかの重要な条件を提示しています。研究機関・非営利団体・教育機関などへのアクセスは維持すること、ペイ・トゥ・クロールをウェブ全体のデフォルト設定にしないこと、そして制度は標準化・オープンな仕様で構築すべきことなどを求めています。

一連の動向は、AIの急速な普及に伴うクリエイターとコミュニティの権利保護問題が、音楽・ソフトウェア・出版の各分野で同時並行的に顕在化していることを示しています。個々のアーティストやプロジェクトによる対抗措置にとどまらず、業界団体や国際的な非営利組織も制度設計への関与を強めており、今後の法整備や業界標準の形成が注目されます。