“エッジコンピューティング”という言葉が浸透し、“エッジAI”も広く認知されるようになってきました。現在、制御・組み込み業界はもちろん、リテール・サービス業界、広告メディア業界にまでエッジAIが普及しています。

では、なぜエッジAIが普及したのでしょうか。最も影響のある要因は“コスパ”です。エッジAIを実装する技術の多様化と競争により性能が向上し、劇的に実装コストが下がりました。それにより費用対効果が改善され、エッジAIの用途や利用できる機器が一気に広がっています。

ちなみに、エッジという言葉は業界によって意味が異なることをご存知ですか? 通信キャリアやインターネットプロバイダの世界のエッジは、CDN(コンテンツ・デリバリー・ネットワーク)などのサーバ群を意味するインフラエッジですが、企業や事業所などの末端拠点に存在するのはデバイスエッジやリアルエッジなど、インフラエッジと区別される言葉も出てきました。エッジAIに関する表現や意味合いが、通信キャリアと製造業では微妙にずれることがあるのはこのせいかもしれません。ここでのエッジはデバイスエッジやリアルエッジを対象にして説明しています。

エッジAIの現状

エッジAIの普及が始まっています。

クラウド型AIで従来から問題となっていた運用コスト、レイテンシー(反応遅延)、安定連続運用等の課題は、エッジAIの普及に伴い、解消・改善されてきました。

そして、目的に最適化されたエッジAIの精度と速度のバランス設計による導入コストの適正化も進み、エッジAI活用の可能性は広がっています。また、主要半導体ベンダーや主要クラウドサービスでは、エッジAI市場の広がりを加速する各種開発ツール(※)やサービスメニューなどが、この1年間だけでも数多く整備・拡張されてきました。

※ 代表的な例として、NVIDIA TensorRT™ やIntel®の OpenVINO™ 、Amazon SageMaker Neo など

エッジAI開発環境の多くは、標準的な学習フレームワークで制作した学習済みAIの推論モデルをフレームワーク間で共通して使える交換フォーマット(例えば、NNEF, ONNX等)に変換し、それを対象のデバイスや機器(HW:ハードウェア)で動作するようにコンパイルする手法(ディープラーニング・コンパイラ/モデル・オプティマイザー)で開発が行えるようになってきました。そして、単純に変換するだけでなく、対象のHWリソースに応じた基本的な最適化アプローチとして、量子化や枝刈り(スパース化)などの一般的な手法から、ヘテロジーニアスな環境(複数の種類のHWリソースが混在し利用できる環境)の最適分散化展開など、各ベンダーがそれぞれのデバイスに特化した最適化機能の強化も進めています。

OSS(オープンソースソフトウエア)でもこの流れは広がっています。数ある深層学習コンパイラの中で、対応している学習フレームワークや対象としているデバイスの種類の多さなどからTVM(Tensor Virtual Machine)への関心が高まっています。特に興味深いのはAutoTVMです。機械学習を使って自動的に最適的なコードへとチューニングを行うもので、対象のデバイスに特化した推論処理の高速化ができます。近い将来、今のAI職人に取って代わる存在になるかもしれませんね。

このように、エッジAIを実現するために様々な分野から追い風が吹いています。言い換えると、大学・研究機関からシリコンベンダー、インターネットサービスプロバイダーまで、世界中の多くの研究機関や大企業がエッジAIに大きなビジネスチャンスの可能性を見つけ投資していると言えます。

エッジAIの広がり

コスト低下による費用対効果の向上

なぜエッジAIが普及してきたのでしょうか?

ひとつは、コストが下がり費用対効果がニーズに見合うようになってきたからです。

AIを開発する際、従来は初期の検討・開発費が非常に高額で、費用対効果の検討段階で終わってしまうこともありました。しかし現在、AI開発の学習フレームワークなどの開発環境が充実してきたことに加え、エッジAIが使えるデバイスの種類や対応機器が増えたことで、用途、目的、価格、性能に応じたHWプラットフォームを選択できるようになってきました。

NVIDIA社のGPUもJETSONファミリーでモジュール化され部品として扱えるように種類が増え、ARMアーキテクチャの各種マイコンやSoCデバイスもAI対応のライブラリーを揃えてきました。またIntel社も、CPU/AI-ASIC:Mobidius/FPGAなどのヘテロデバイス向けのオプティマイザーを提供したり、Google社もエッジ向けデバイスの展開まで広がりを見せたりしています。

エッジAI開発環境が整備されたことで、多くのエンジニアが安価・無料で簡単にエッジAI開発を試すことができ、各種評価ボードやPC、スマホなどにエッジAI推論モデルを実装できるようになってきました。これまではAI技術者が高価な機材のある環境でしか開発できなかったものが、一般のエンジニアもより身近な環境で開発できるようになったことで、AI開発のすそ野が広がり、結果的に、AIの開発費は正当な価格設定に落ち着いてきました。

適切な理解・期待値の浸透

エッジAIが普及してきたもうひとつの理由として、AIに対する正しい理解・期待値が浸透してきたことが挙げられます。企業側のエッジAIに対する正しい認知が進むことで、エッジAIに対する過剰な精度・性能要求が少なくなってきました。エッジAI開発は成果保障や精度信仰の呪縛から解放され、ビジネス利用可能な適正な妥協点を見つけていく流れに緩やかに移行しつつあります。

これにより、過剰な開発や検証が不要になり、開発期間・コストを大幅に削減することが可能になりました。また、旧来のウォーターフォール開発からアジャイル開発へアプローチも変わってきたことにより、開発における過剰なリスクヘッジが不要となり、結果的に開発期間とコストが適正化されました。こういったエッジAIに対する正しい理解と認識が、市場拡大の基礎として着実に浸透しているように感じます。

またAIに対する理解・期待値は、PoC(プルーフオブコンセプト:概念実証・試作)の後、次の段階に進めるかどうかにも大きく関わります。

PoCから実用への課題

残念ながら、AI開発がPoCの段階で終わってしまうケースも多く見られました。特にエッジAI開発で重要な初期設計段階におけるオブジェクティブ・デザイン(用途目的・目標効果・実用時コスト設定・エッジAI以外での実装比較などの基本コンセプトの設計)が十分でなく費用対効果が見極められなかったケースが多いようです。

PoCで終わるケースの多くは、過大なAIへの期待と実用レベルのギャップです。特に状況・環境・対象の変化はエッジAIの推論精度に大きく影響するため、継続的なAI学習の実施やアップデートが運用上必要であることもあまり理解されていませんでした。つまり、「PoCではそこそこうまくいったのに、現場で試験すると全然だめじゃないか」というネガティブスパイラルに陥ってしまうのです。とりあえずAIで何ができるか調べてみるなどの最終目的のないPoC自体を目標としたAIプロジェクトは、そもそもその先へは進めません。PoCは技術的な検証以上のものではありません。エッジAIの開発は、最終使用環境をもとに進めるのが本来の在り方です。

AI開発最大の課題

PoCから実用へと進むときに問題になるのがAI開発の最大の課題である“学習データ”の準備です。「PoC開発時にあれだけ大量の学習データを準備して精度も出せた。これ以上何が必要なんだ」という声が聞こえてきそうですが、例えば、設置場所が変わると背景の照明環境が変わり、影の出方や照度・色味が違えば輪郭の捉え方まで影響を受けることがあります。そうするとエッジAIの推論のニューラルネットワークは、過去に学習したものと比べて同一性が低いという判断をして、結果的に精度が下がることになります。これは、PoCの段階では、精度を上げるため過学習気味に制作された特化型AIモデルの制作に偏りがちなことが背景にあります。

つまり、PoC開発時に使用した学習データでは非常に高い精度が出せるが、少し違うデータを使うと精度が出しにくいという、データセット依存度が高い学習済みのモデルになってしまっている典型的なケースです。

実際の現場でも使えるようにするためには、PoCの学習済み推論モデル開発時に、ある程度汎化性を持たせたレベルで学習を収束させたうえで、現場の環境に応じた学習データを追加して再度学習させるか、転移学習などで、実際の現場での精度を上げていくアプローチが有効です。

さらに、その他の課題も浮き彫りになってきました。現場のニーズとして、状況によってはエッジAIの利用シーンでもニューラルネットワークの更新・学習が要求されるケースが出てきたのです。

※記載している会社名、商品名は各社の登録商標または商標です。

 

薬師寺 秀徳
薬師寺 秀徳(Hidenori Yakushiji)

イノベーション統括部 先端技術支援部
モバイルインテグレーション室
次長

この記事を読んだ人はこちらの記事も読んでいます。