2019年4月30日火曜日

いよいよAIの作業

社長からお題を頂戴したので作業に入ります。

今までデタラメなブログでの説明?で必要な要件を説明したり何が重要なのかを書いて来ましたが、実際自分で実践的な作業はした事がなく誰かのコピペでした。
何度か試みましたが、作業が簡単ではないので改めて説明します。

何をAIで判断したい(目的変数)のかを決めるところからですが、これはとりあえず決まるのですがこれを導き出すデータ(説明変数)を何かも合わせて考えます。

7月10日までに結果を出すのは難しいと思っています。昨年10月から始めようとしていましたが説明変数が決まってもそのデータを4000から5000は取らないと答えを導き出す事は不可能です。
定期等なデータを使えば過学習で目的変数を導き出せません。

フレームワークとハードウェア(NVIDIA Jetson)は決まりました。
これは線形代数(行列計算)の専用機能があるのでデータを集める事が出来れば一気にケリがつきます。

3ヶ月それに掛かりきににならないと出来ない事はわかっています。
素人が片手間で出来る事ではありません。
先日の講習でAIはデータで決まりますとの事。それも質の良いデータでないといけません。そのデータ集めて3ヶ月は掛かります。
質の良いデータとは=目的変数を導き出せるデータです。
例えば、新規出店をするために(目的変数)駅に近い立地や人通りのデータ(説明変数)は良いですが、店長の帽子のデザイン(これも説明変数)では質の良いデータとは言えません。

恐ろしいのは作業をある程度進めてデータを撮り始めて良い目的変数が出なければ全て一からやり直しです。
どこまでそれを許される環境になるかが問題になると思います。
今回は画像認識のAIなので4000種類の写真に一つ一つ目的の画像を座標で囲ってそれにラベルをつけて行く作業をします。間違えると一からやり直しです。
この作業が済めばフレームワークに従って学習させます。7−8時間GPUに作業させます。
訓練精度と予測精度が共に良いような、そんなエポック数(学習回数)を見つけること。
ご覧んの様に片手間で出来ない…

2019年4月22日月曜日

従来の技術と新しい技術のインターフェイス。

従来の成熟した古典技術はAIが出てきたからと言って直ぐになくなる訳ではないと思いますが…
とわ言えデジカメが出てくると数年でフィルムカメラはほぼ無くなり、アマゾンがネットで書籍の販売を始めると街中の本屋さんは紀伊国屋位しか無くなりネット販売が進むと商店街の衰退に一層拍車が掛かりました。

工業製品も例外とは言えない?
ある程度規格化されて価格が安くなればアマゾンで購入する事になると思っています。カスタマイズ製品は残りますが新しい技術を取り入れないとカスタマイズにはならない…

今はAIが流行っているので従来のものにAIをつけると付加価値に繋がるといった短絡的な流れがあるのは否めません。

AIやIoT等の新しい技術を原理から辿って見ると見えてくるものは普遍的なものかもしれません。
乱暴な言い方をするとAIは便利に自動化する技術が高度化した結果なのかもしれません。
IoTは色々なものに繋がってその場で結果を出す機器。(エッジとも言います。)
AIやIoTは一般の人には理解し難い高度な数式が関わってきています。
ですので使う側を選別する様になっています。AiもIoTもまだまだ発展途上で都合よく勝手に何でもしてくれません。

これからあげる例をどう考えるかです。
コンビニがAIを使って無人営業店舗を導入します。
開発に何10億円を掛けて、一店舗あたり数千万円を掛けます。利用者は店舗に入って商品を取ってお店を去ればクレジットカードで勝手に決済されます。クレジットカードを持っていない人は相手にされません。高速道路のETCと同じで持ってなければ高い利用料を払う事になります。
人件費の高騰や人事管理は必要ありません。
この業界で研究している人達の考えは清くて、単純作業はAIが肩代わりしてクリエイティブな仕事をする人を増やす事を考えています。(少なくともそれぞれの方の著書を読む限りです。)

その結果従来の簡単な仕事はなくなってしまいます。但し襲来の方法で店舗を営業すれがAIを使った時より帰って安くなる事になると思います。田舎ではAIを導入してもコルトメリットは出ません。でもある程度は需要があり従来の営業携帯は残ると思います。

そこに残る違いは何になるでしょうか?
前者は多額のコストを掛けても利益の出ます。もう一方は何とかやっていけると思いますが利益は見込めません。新しい技術を使いこなせないとそうなる事は歴史が物語っています。馬車から機関車、電車へ。電話やファックスからインターネットへ。

次の技術はAIとIoTです。どう変化するかは先の話ですが、インターネットの時代に電話やファックスとの違いを理解できなかった人にならない様にしないといけません。
良し悪しではなく変化についていく事が重量です。
その為には新しい技術を分かりやすくする事が必要になります。それも楽しくないといけません。難解な数学で説明しても理解してもらう事が出来ません。ただ扱う人はその難解な高等数学と高度なプログラムを理解して使いこなさないといけません。

技術者を通年採用している会社は早晩、機械学習やその他の制御技術を習得した世代が古典技術を融合していくのでしょうね。

2019年4月21日日曜日

今しようとしている事

今密かに世界中でやろうとしている事はjetson nano($99のGPU)を使って機器側で推論する事を広げようとしています。
通常モデルを作って推論する場合最低1秒間に20回認識しないと使い物にならないと思います。と言うより実用性にならないのでJeton TX2が使われています。
これで機器だけで10万円掛かります。この金額だと普及するにはコストが掛かりすぎです。AIの部分だけで売値で20万円位になります。
Jetson nanoは安いですが、能力はTX2の2/5程度です。1秒間に10回が限界だと思います。添付の動画は1秒間に3〜5回で、こんな速さで(10回でも)は使えませんね。

コストは一気に1/3になります。ここでソフトの出番です。
講習を聞いている限りNvidiaはライブラリーをチューニングしていますが同時にある事に注目しています。以前書きましたがコンピュータービジョンやマシンビジョンを応用しようとしています。画像の特徴点を追従する機能を使います。
コンピュータービジョン(CV)やマシンビジョン(MV)とはこんな事です。
例:顔の特徴点を取得して追従(黄緑の部分)するライブラリー
Jetson nanoでは推論自体の能力を倍にする事は出来ませんがこのコンピュータービジョンを応用して推論の処理の間に最初に推論したオブジェクトをCVで追いかけて見かけ上1秒間に20回にしようとしています。理論上出来る事はわかっているのですがライブラリーに仕上げるのはメーカーの人間でもある程度時間が掛かり予定では6月末にリリースの予定ですが、それを自分たちでしよとしています。
認識率を下げずにこれが出来ると快挙です。でそれをいち早くできれば他より早く製品化が出来る事になります。

OpenCVを入れてテストしたらこんな感じです。まだまだ調整に数ヶ月は掛かる感じもあります。
見ての通り最初の処理より可也改善しています。

2019年4月19日金曜日

Nvidia DeapStream SDK

東京のNVIDIA IVA(intelligent Videa Analytics) summit in Japanに参加しています。
去年もJetson Xavierの発表に合わせた講習会に来ましたが、その時のメンバーがちらほらと常連の様です。当然製品を出している会社なのでかなりハイレベルです。総勢102人で満員。相変わらず東京はすごく熱いです。

こちらも製品を出そうとしているので最新の情報を収集が目的。
今回の目的はNvidia DeapStream SDK。
Q2(今年6月予定)にNvidia Jeton Nano用のDeapStream SDKが発表されていないので現在のシステムのスピードは上がらない。
メーカーのデモはこれ(下記動画)なのでここまでのレベルになれば製品化できると思います。
この廉価なnanoは非力なのでこのDeapStream SDK(ライブラリー)が出来れば現在のシステムを直ぐに仕上げる予定。(3〜6ヶ月位?)
勘違いされるのはシステムはライブラリーがあれば完成するのは時間の問題ですが、学習データが非常に大変で時間が掛かります。
学習データが悪ければ推論の精度が悪くなりまた学習からやり直しです。
ここに3ヶ月以上掛かると思います。
インテリジェントビデオ分析(IVA)が今回の商品化のポイントになります。
DeapStream SDKはPerception(edge)今回の機器側(Jeton nano)とAnalystics(cloud)クラウド側を両方を橋渡しをするライブラリーになります。と同時に機器の中の処理も適正化してメモリーを最小化してより高度な処理が小さなGPU(nano)でも出来る様に期待しています。

NvidiaはGPUのメーカーですが、全体の70%エンジニアでその70%ソフトウェアエンジニアです。
FPGAでAIをする事はほとんど汎用性が無いので今回私たちは手を出すつもりはありません。正直古い考え方でハードもソフトもスクラッチ(一から)作るのは生産性が悪いし、Nvidiaが自分たちのGPUを適正にソフトと連動するライブラリを作っているのでそれを使う方が確実です。ハードもソフトもオールマイティに知識が無いとFPGAは実質時間が掛かって完成した頃には一世代前のものになると思います。それくらい開発スピードが早いです。

今回の講習は非常に得るものが多いです。

ビジネスモデルとしては通常のカメラを使った説明が多いです。ここがこちらと違うところですが、基本技術をどこまで応用出来て何が使えないかがこれからの試行錯誤で時間が掛かりますが、ここを蓄積すると他との差別化と強みになります。

画像照合と差分検知はAIではありませんがこの技術も今回は応用しています。混同される事が多いのでここに追記しておきます。
この辺りは以前説明しましたが、OpenCV(computer vision=コンピュータービジョン)として導入しています。

今回お仕事として応用するのですが、どこまでこれらのAIの会社と同じ事を技術者を雇ってするのかとのバランスです。人数に制約があるので精査する必要があります。
高価なハードとデータサイエンティストを雇う事は無いと思います。

今回そこそこのAIのサービスのデモを見ましたがどこかのマサチューセッツ工科大学やスタンフォード大学、ミューヘン大学で開発されたフレームワークを応用している物の完成度を上げたものを見ましたが、独創性は無いです。資本に物を言わせた力技でサービスにしている感があります。数字のイメージですと現在年収1000万のAIデータサイエンティストを3人で500万円分のGPUサービスを(オンプレ=GPU付きPC購入でもクラウドでも同じくらいのコスト)で半年は掛かる事を実現している感じです。
主観ですが、これで採算が取れる事業になっているか?と思うと実際の収益よりは株価で事業がもっている感じがします。

最新のGPUハードの進化もすごい事になっています。
会社のパソコンは人でいうと歩くスピードで今回私が構築したGTX1080のGPUを積んだパソコンが自転車、DGXを積んだ専用サーバーがスポーツカーで、最新のDGX-2は専用のバス接続なのでリニアモータカーレベルです。金額も39万9千ドル=4500万円!
学習するのに一般的なデータでGTX1080で8時間、DGXで数十分でDGX−2なら一瞬です。
なのでこのクラスになるとデータ量がペタバイトでもうすでにエクサバイトです。
*ギガが億、テラが兆で、ペタが千兆でエクサバイトは100京です。
こんな時代です。

大阪ではこんな講習や情報を得る機会はあまりないのが現状です。殆どAI会社が東京本社だから仕方がないですが…

通信で5Gが話題になっていますが、普及するのは今の技術でも数年掛かると思います。
社長は無線をしていたのでお分かりと思いますが5Ghzになると電波は直進しか出来ず距離も伸ばせないので大量にデータを扱う基地局が数多く必要になります。金額もそれなりに掛かるでしょうし。それも今でも可也の発熱と電力を消費します。良いところばかりフォーカスされていますが、どう考えても時間が掛かると思います。

ちなみに今回は中国のAI会社の日本支店のプレゼンもありました。この辺はボーダレスです。レベルも日本のフィンテックと遜色は無いです。
セキュリティカメラの画像認識ですが、可也の精度で判別しています。
当然共産党が喜ぶシステムで政治犯が街中の監視カメラで簡単に検知して捕まえる事が出来る訳です。
ちょっと怖ーいです。
この会社はタイムカードも無く社員証も無く顔認識で社員食堂や社内売店で購入が出来ています。流石に個人認識は一日の長があるようです。
AIフレームワーク独自です。
この技術で無人店舗を運営するのでしょうね。

中国のAI会社が講習の最後になるのが印象的です。

アメリカのAI会社はSDKをも提供するようです。これまでのAI会社は自分のパッケージを売るといった事だけでは無く、他の開発者に自分たちの技術を無償で提供するのは画期的です。広く開発者と協業するのは今の流れでオープンソースの考え方でこれが今後の主流になると思います。大阪商工会議所でこの考え方で申し込みしましたが、ビジネスとしての評価は低い様ですが、世界の流れはむしろここだと思います。大阪の商工会議所にそれを評価出来るかは無理でしょうが。

終わりに

追伸:
AVerMedia恐るべしです。台湾の会社です。
今回のこちらの技術は私たちにしてみればダークホースです。
もしかしたらココと協業するかもしれません。
これから色々調べてみます。jetson nanoで可也のフレームで処理しています。
羨まし技術です。もう日本で全てを賄う事は時代遅れのようです。


2019年4月17日水曜日

VRとその可能性

ゲームという認識が多いと思いますが現実の世界と繋がると業務にも使える技術です。
グーグルアースでは現実にある現場に行くとその場所をリアルに理解できます。
何人かの人に実験台になって頂いて体験して頂きました。
表現する方法と技術は確立されていますが、3Dデータの生成が難しく中々簡単な方法が今の所ありません。
深度カメラ(depth camera)で生成する事が徐々に出来る様になっていますが、完成度がまだまだです。3D CADで作ってしまえば仮想空間が作る事が出来ますが、現実はカメラで生成したいですよね。。。
10万円もする深度カメラでデータを作ると条件が整はないとこんな感じです。
https://p3d.in/dO4jr

会社の会議室です。
ブラウザーで360度見れます。
2つのカメラの左右の視差で画像を自動で生成しますが、影が無い場合や露出が極端に高いか低いかで画像が生成できない欠点があります。もう一つは赤外線で距離を計測する深度カメラがあります。(iPhone Xについていて顔の特徴をとらえてセキュリティーロックを解除します。
欠点は屋外で赤外線が乱反射して1m以上の距離を判別する事が難しです。(現状)

バーチャル工場見学等アイデアはいろいろ広がるのですが、技術を使いこなすには色々クリアーする事があります。


2019年4月11日木曜日

線形代数、行列、微分積分学、ベクトル…

AIや最新制御技術の本質は、やはりコンピュータの技術の進歩で複雑な解析をリアルタイムで処理する事が前提です。

後日イメージを図式作って貼る予定(結構難しい)。
x軸、y軸、z軸に広がる点群の様なもの。
それが複雑に動いています。この例は人がこのデータ郡をみてドーナツ状だという理解が出来るとおもいます。
線形や非線形代数を使ってベイズ理論で必要なデータをフィルターに掛けてその目的の傾向がつかめればそれがモデル(機械学習に置ける学習結果)になります。
それが新しい未知のデータに対して何%モデルと近いかで予測して次のアクションを決めていきます。
古典的なデータ処理はデータをカルマンフィルタ等でデータを処理して閾値でデータを切り捨てます。その為データにヒントが隠れていても無視されます。








例:トーラスの点群

現在までの私の理解では、AIや最新技術の本質を要約すると。
”データレイク(データの湖=様々なデータがトーラスの点群の様に立体的に広がっている)中から必要なデータを取り出して解析して次の動作に結び付けている。”

a.必要なデータが既にある場合。
①先ずは実現する目的を明確にします。
②目的に必要なデータの仮説を立てる事から始まります。
(ここは非常に重要で最新技術を理解して尚且つプロでも難しく経験が必要。)
③それからデータを処理する技術やプログラムで解析します。
(総合的な最新技術やプログラムの知識が必要)
④一旦シミュレーションしてデータを検証
⑤必要に応じてそのモデルは他に応用

b.必要なデータが未だない場合。
①先ずは実現する目的を明確にします。
②目的に必要なデータの仮説を立てる事から始まります。
(ここは非常に重要で最新技術を理解して尚且つプロでも難しく経験が必要。)
③目的に必要なデータの収集(数百のデータでは少ないので数千のデータを集める)
④一旦シミュレーションしてデータを検証
⑤シミュレーション結果が仮説と違う場合は②から立て直し。
⑤必要に応じてそのモデルは他に応用

AIや自動運転は現在この様な事を繰り返し実践している状態です。技術としてはまだ確立していない状態です。

上記のトーラス点群を数式とデータに書き出しても動画の様にドーナツが回転していると理解できる人は殆どいません。
同様にデータ郡を数式で処理する事でなにが起こっているかをコンピューターで処理すると動画の様に理解して次の動きの予測が高い確率で出来る様になります。

自動運転でこの技術は走行中の障害物の位置の推測に使います。
自動車も歩行者(移動する障害物)も動いています。その座標は平面だけでは無く高さも伴います。
自動運転は車だけでなく飛行機やドローンも使える技術です。
(自動運転の技術はこれらの技術の総合デパートの様なものでこれらの技術を総合的に深く理解していないと出来ない事なので優秀な人材は自動運転を研究している人は多い様です。)

今回は理解するのが難しい文章ですみません。

2019年4月9日火曜日

3Dデザインと基板作成無料ツール

3Dプリンターで出力する為のデータ作りはオートデスクが提供する無料のtinkercadといるサービスを使っています。四角、球体、三角錐等のベースの素材を合体させて簡単な形状を作る事が出来ます。ネジや複雑な形状は他の人が作ったサンプルを改変してオリジナルの形状を作る事が出来ます。
https://www.tinkercad.com/things
出来上がった作品をstlファイル(拡張子.stl)で出力すれば3Dプリンターで簡単に出力出来ます。
いい時代です。
次に基板ですが、以前は同じ様なクラウドサービスで基板を設計していましたが、無料だったのですが、公開が中止されてしまいました。無料なので文句は言えません。
なので同じくオートデスクが有料の基板設計ソフトのEAGLEの制限版(両面基板基板で
10cm角まで無料)を使っています。
先ず画面右上の部品配置と配線を決めます。その後中心下の部品のフットプリントを基板サイズの中に配置して配線します。その際に先に部品配置の後の配線とフットプリントの際の配線は紐づいているのでそれ以外の配線をするとエラーが出ます。
それを中国基板メーカーのwebサイトにアップロードしてビューアーで内容を確認してからクレジットカードで決済して手配します。製作に一週間程度でその後クーリエサービスで2-3週間で届きます。両面基板10cm角10枚で500円で送料が2000円程度です。

すると下記写真左上の様なパックが届くので、それに部品を半田付けしていきます。
今回の作品は最初のテストから2年半が経って、ある程度完成するまで1年掛かりました。その後も地味に改良を重ねて性能アップと安定性を上げて来ました。
基板は失敗作も含めて30個以上デザインして、部品を半田した分でも10個以上試作しました。
Wifiアナライザーもテスター位の測定器しか無く性能評価がまさしく実機を試作してテストを繰り返すアナログ的な作業の連続でした。
どうせ作るなら自分たちの納得のいくまで仕上げようとやっています。
多分,stay hungry, stay foolishですかね?