2019年4月19日金曜日

Nvidia DeapStream SDK

東京のNVIDIA IVA(intelligent Videa Analytics) summit in Japanに参加しています。
去年もJetson Xavierの発表に合わせた講習会に来ましたが、その時のメンバーがちらほらと常連の様です。当然製品を出している会社なのでかなりハイレベルです。総勢102人で満員。相変わらず東京はすごく熱いです。

こちらも製品を出そうとしているので最新の情報を収集が目的。
今回の目的はNvidia DeapStream SDK。
Q2(今年6月予定)にNvidia Jeton Nano用のDeapStream SDKが発表されていないので現在のシステムのスピードは上がらない。
メーカーのデモはこれ(下記動画)なのでここまでのレベルになれば製品化できると思います。
この廉価なnanoは非力なのでこのDeapStream SDK(ライブラリー)が出来れば現在のシステムを直ぐに仕上げる予定。(3〜6ヶ月位?)
勘違いされるのはシステムはライブラリーがあれば完成するのは時間の問題ですが、学習データが非常に大変で時間が掛かります。
学習データが悪ければ推論の精度が悪くなりまた学習からやり直しです。
ここに3ヶ月以上掛かると思います。
インテリジェントビデオ分析(IVA)が今回の商品化のポイントになります。
DeapStream SDKはPerception(edge)今回の機器側(Jeton nano)とAnalystics(cloud)クラウド側を両方を橋渡しをするライブラリーになります。と同時に機器の中の処理も適正化してメモリーを最小化してより高度な処理が小さなGPU(nano)でも出来る様に期待しています。

NvidiaはGPUのメーカーですが、全体の70%エンジニアでその70%ソフトウェアエンジニアです。
FPGAでAIをする事はほとんど汎用性が無いので今回私たちは手を出すつもりはありません。正直古い考え方でハードもソフトもスクラッチ(一から)作るのは生産性が悪いし、Nvidiaが自分たちのGPUを適正にソフトと連動するライブラリを作っているのでそれを使う方が確実です。ハードもソフトもオールマイティに知識が無いとFPGAは実質時間が掛かって完成した頃には一世代前のものになると思います。それくらい開発スピードが早いです。

今回の講習は非常に得るものが多いです。

ビジネスモデルとしては通常のカメラを使った説明が多いです。ここがこちらと違うところですが、基本技術をどこまで応用出来て何が使えないかがこれからの試行錯誤で時間が掛かりますが、ここを蓄積すると他との差別化と強みになります。

画像照合と差分検知はAIではありませんがこの技術も今回は応用しています。混同される事が多いのでここに追記しておきます。
この辺りは以前説明しましたが、OpenCV(computer vision=コンピュータービジョン)として導入しています。

今回お仕事として応用するのですが、どこまでこれらのAIの会社と同じ事を技術者を雇ってするのかとのバランスです。人数に制約があるので精査する必要があります。
高価なハードとデータサイエンティストを雇う事は無いと思います。

今回そこそこのAIのサービスのデモを見ましたがどこかのマサチューセッツ工科大学やスタンフォード大学、ミューヘン大学で開発されたフレームワークを応用している物の完成度を上げたものを見ましたが、独創性は無いです。資本に物を言わせた力技でサービスにしている感があります。数字のイメージですと現在年収1000万のAIデータサイエンティストを3人で500万円分のGPUサービスを(オンプレ=GPU付きPC購入でもクラウドでも同じくらいのコスト)で半年は掛かる事を実現している感じです。
主観ですが、これで採算が取れる事業になっているか?と思うと実際の収益よりは株価で事業がもっている感じがします。

最新のGPUハードの進化もすごい事になっています。
会社のパソコンは人でいうと歩くスピードで今回私が構築したGTX1080のGPUを積んだパソコンが自転車、DGXを積んだ専用サーバーがスポーツカーで、最新のDGX-2は専用のバス接続なのでリニアモータカーレベルです。金額も39万9千ドル=4500万円!
学習するのに一般的なデータでGTX1080で8時間、DGXで数十分でDGX−2なら一瞬です。
なのでこのクラスになるとデータ量がペタバイトでもうすでにエクサバイトです。
*ギガが億、テラが兆で、ペタが千兆でエクサバイトは100京です。
こんな時代です。

大阪ではこんな講習や情報を得る機会はあまりないのが現状です。殆どAI会社が東京本社だから仕方がないですが…

通信で5Gが話題になっていますが、普及するのは今の技術でも数年掛かると思います。
社長は無線をしていたのでお分かりと思いますが5Ghzになると電波は直進しか出来ず距離も伸ばせないので大量にデータを扱う基地局が数多く必要になります。金額もそれなりに掛かるでしょうし。それも今でも可也の発熱と電力を消費します。良いところばかりフォーカスされていますが、どう考えても時間が掛かると思います。

ちなみに今回は中国のAI会社の日本支店のプレゼンもありました。この辺はボーダレスです。レベルも日本のフィンテックと遜色は無いです。
セキュリティカメラの画像認識ですが、可也の精度で判別しています。
当然共産党が喜ぶシステムで政治犯が街中の監視カメラで簡単に検知して捕まえる事が出来る訳です。
ちょっと怖ーいです。
この会社はタイムカードも無く社員証も無く顔認識で社員食堂や社内売店で購入が出来ています。流石に個人認識は一日の長があるようです。
AIフレームワーク独自です。
この技術で無人店舗を運営するのでしょうね。

中国のAI会社が講習の最後になるのが印象的です。

アメリカのAI会社はSDKをも提供するようです。これまでのAI会社は自分のパッケージを売るといった事だけでは無く、他の開発者に自分たちの技術を無償で提供するのは画期的です。広く開発者と協業するのは今の流れでオープンソースの考え方でこれが今後の主流になると思います。大阪商工会議所でこの考え方で申し込みしましたが、ビジネスとしての評価は低い様ですが、世界の流れはむしろここだと思います。大阪の商工会議所にそれを評価出来るかは無理でしょうが。

終わりに

追伸:
AVerMedia恐るべしです。台湾の会社です。
今回のこちらの技術は私たちにしてみればダークホースです。
もしかしたらココと協業するかもしれません。
これから色々調べてみます。jetson nanoで可也のフレームで処理しています。
羨まし技術です。もう日本で全てを賄う事は時代遅れのようです。


0 件のコメント:

コメントを投稿