NVIDIA、合成データで多言語OCRモデルを構築
詳細を読む
NVIDIAは2026年4月17日、合成データのみで学習した多言語OCRモデル「Nemotron OCR v2」をHugging Faceで公開しました。英語・日本語・韓国語・ロシア語・中国語簡体字・繁体字の6言語に対応し、単一モデルで言語の事前指定なく文書を読み取れます。データセットとモデルはともにオープンライセンスで提供されています。
従来のNemotron OCR v1は英語専用で訓練されており、日本語や韓国語ではNormalized Edit Distance(NED)が0.7〜0.9と実用に耐えない精度でした。多言語化の課題はモデル構造ではなく学習データの不足にありました。実世界の文書画像を6言語分収集・アノテーションするコストは現実的でないため、チームは合成データによるアプローチを選択しました。
合成データパイプラインはSynthDoGを大幅に改良したもので、単語・行・段落の3階層バウンディングボックスと読み順グラフを自動生成します。CJK言語ではスペース区切りがないため行単位の認識を採用し、165〜1,258種のオープンソースフォントを使用。多様なレイアウトテンプレートとデータ拡張により、合成画像でも実文書への汎化性能を確保しています。
ベンチマーク結果は顕著です。SynthDoG評価では全言語でNEDを0.035〜0.069に低減し、言語別の専用モデルであるPaddleOCRをも上回りました。実文書ベンチマークのOmniDocBenchでは、PaddleOCR v5の毎秒1.2ページに対し毎秒34.7ページを達成しています。この速度はFOTSアーキテクチャに基づく特徴マップの共有設計によるもので、検出用バックボーンの畳み込み処理が1回で済むため下流コンポーネントのオーバーヘッドが最小化されています。
このパイプラインの拡張性も注目に値します。新しい言語への対応に必要なのは対象言語のソーステキストとフォントだけで、モデル構造の変更や手動アノテーションは不要です。mOSCARコーパスが163言語をカバーし、Notoフォントファミリーがほぼ全てのUnicodeスクリプトに対応しているため、さらなる多言語展開への道筋が明確に示されています。