書き方や著作権の扱いが未熟で修正が効かないのが理由です。ここに書き込む事で色々な勉強になりました。一旦休憩してレベルアップしたblogが書ける様になればと思います。書き始めてから関わった全て方に感謝します。著作権をよく理解出来ずご迷惑をお掛けした事をこの場を借りてお詫びします。
有難う御座いました。
書き方や著作権の扱いが未熟で修正が効かないのが理由です。ここに書き込む事で色々な勉強になりました。一旦休憩してレベルアップしたblogが書ける様になればと思います。書き始めてから関わった全て方に感謝します。著作権をよく理解出来ずご迷惑をお掛けした事をこの場を借りてお詫びします。
有難う御座いました。
現在社内の図面は2次元CADでバイナリーファイルでバージョン管理が難しい。
READMEファイルに注記を入れてスナップショットで管理するしかないかと思います。
3Dだとクラウドで勝手にバージョン管理されるので履歴も誰が更新したかも特に問題な無し。
後はgoogleドライブのアクションアイテムを利用してファイルを交換すれば”何時””誰が””何を”を管理する事が出来る様になります。
お互いの齟齬が無くなるので改善すると思います。
印刷物と違いその後のフォローも出来るので何かとヒューマンエラーを防止できる。
折角の機械学習や分析の手法を共有する為のサーバーを作ってみます。
ネットの情報そのままではライブラリ等で躓いたので追記しました。Windowsのファイル指定がかえってなれないのと
今後新しい人が来た時に使いやすく独立したサーバーにしておきます。
Jetson にアナコンダをインストールしてからサーバー化
Sudoで直接インストールはseaborn等でエラーが出るのでanaconda環境で
jupyterlabをインストール
https://www.pc-koubou.jp/magazine/38846
上記参考にUBUNTUにanacondaをインストール
但しアームコアなので下記ファイルでインストール
https://github.com/Archiconda/build-tools/releases
$ cd ~/Download
※日本語化して使用している方はディレクトリ名が『ダウンロード』の場合もあり
ます。
bashで実行する
ディレクトリを移動したら先程ダウンロードしたファイルをbashで実行します。
今回ダウンロードしたファイル名はArchiconda3-0.2.3-Linux-aarch64.shですの
で、そのまま入力します。
$bash Archiconda3-0.2.3-Linux-aarch64.sh
source ~/.bashrc
conda activate
(base)
conda list
conda install pip
conda detactivate
conda install jupyterlab
jupyter lab
取り敢えず起動の確認
その後以下を良く使うのでインストール
conda install pandas
conda install matplotlib
conda install seaborn
conda install openpyxl
conda install scikit-learn
matplotlibの文字化け様に日本語フォントインストール
https://self-development.info/ipaexgothic%e3%81%ab%e3%82%88%e3%82%8bmatplo
tlib%e3%81%ae%e6%97%a5%e6%9c%ac%e8%aa%9e%e5%8c%96%e3%80%90python%e3%80%91/
IPAexGothicのインストール
文字化けを解消するためには、日本語のフォントが必要です。
ただ、Ubuntuには、デフォルトでIPAフォントから派生した「Takaoフォント」がイ
ンストールされています。
それを使うという手もありますが、一般に普及しているIPAexGothicを使うことに
します。
IPAexGothicは、IPAexゴシックのことです。
findfont: Font family ['IPAexGothic']
not found. Falling back to DejaVu
Sans.
「IPAexGothicフォントなんてないよ!!」というエラーです。
このエラーが出る場合は、ほぼキャッシュが原因となります。
ちなみに、キャッシュはユーザー毎にあります。
場所は、ホームの下ですね。
なお、ファイル名が同じとは限りません。
$ ls ~/.cache/matplotlib/
fontlist-v330.json
このファイルを削除します。
「rm」コマンドで適当に削除してください。
再度、「japanse.png」を作成するプログラムを実行します。
文字化けせずに「日本語title」で表示されれば、成功です。
以上、「IPAexGothicによりMatplotlibを日本語に対応させる」でした。
ここから先はconda acvitaeして(base)wiwao@wiwao-desktop:~で作業する。
#AnacondaのVersion確認
#root@XXX tmp]# anaconda -V
#anaconda Command line client (version
1.7.2)
jetson nano nvidia-l4t-bootloader errorが出る場合は下記処理
sudo mv /var/lib/dpkg/info/
/var/lib/dpkg/backup/
sudo mkdir /var/lib/dpkg/info/
sudo apt-get update
sudo apt-get -f install
sudo mv /var/lib/dpkg/info/*
/var/lib/dpkg/backup/
sudo rm -rf /var/lib/dpkg/info
sudo mv /var/lib/dpkg/backup/ /var/lib/dpkg/info/
sudo apt update
sudo apt upgrade
sudo apt dist-upgrade
jupyterのVesion確認
[root@XXX tmp]# jupyter --version
4.4.0
Path確認
[root@XXX tmp]# jupyter --path
config:
/root/.jupyter
/root/anaconda3/etc/jupyter
/usr/local/etc/jupyter
/etc/jupyter
data:
/root/.local/share/jupyter
/root/anaconda3/share/jupyter
/usr/local/share/jupyter
/usr/share/jupyter
runtime:
/run/user/0/jupyter
ここからWEBサーバーの設定
JupyterNotebookの設定ファイルを生成する
$jupyter notebook --generate-config
設定ファイルの編集をする
$sudo vi
/home/takeo/.jupyter/jupyter_notebook_config.py
Writing default config to:
/home/takeo/.jupyter/jupyter_notebook_config.py
Viで/を押して
/c.NotebookApp.allow_origin
として検索します。
自己サーバーにアクセス許可設定します。
######c.NotebookApp.allow_origin = ''
コメントアウト(#)は削除し
c.NotebookApp.allow_origin = '*'
に変更し、同じ様にc.NotebookApp.ipを検索します。
#####c.NotebookApp.ip = 'localhost'
コメントアウト#をはずしすべてのIPをリッスン
c.NotebookApp.ip = '0.0.0.0'
に変更します。
ローカルでブラウザを立ち上げないようにします。TrueからFalseに変更。
c.NotebookApp.open_browser = False
:xを実行しviを終了します。
jupyterのパスワードを設定いたします。設定ファイルにハッシュが入ります。
$ jupyter notebook password
[NotebookPasswordApp] Wrote hashed
password to
/home/takeo/.jupyter/jupyter_notebook_config.json
jupyterを起動します。
$jupyter lab
外部デバイスからブラウザの検索バーにipアドレス:8888でアクセス可能に
参考
https://jupyter-notebook.readthedocs.io/en/latest/config.html
https://jupyter-server.readthedocs.io/en/latest/operators/public-server.html
これでも下記エラーが出るのでその処理。
私の環境では、
train_test_split(テストデータ分割関数)を使用するために
from sklearn.model_selection import
train_test_split
をソースコードの記載し、実行すると
ImportError:
/usr/lib/aarch64-linux-gnu/libgomp.so.1: cannot allocate memory in static TLS
block
となってしまうので、
$ export
LD_PRELOAD=/usr/lib/aarch64-linux-gnu/libgomp.so.1
を実行しました。
コマンドラインでは、その端末のみ有効となるため、恒久的に行う場合には、
~/.bashrc
export
LD_PRELOAD=/usr/lib/aarch64-linux-gnu/libgomp.so.1
を追加して下さい。
この対処が正しいかはわかっていませんが、とりあえず実行できるようになりました。
電力需給が逼迫してますが、太陽光は限定的な役に立っているか?だけ。日が暮れる夕方にかけてかえって状況を難しくしています。日が暮れて暑さが変わらなければ供給が不足します。
蓄電池を普及させる事によって逼迫状況がどう変わるかを調べていますが、各家庭の日中の電力消費のデータはありそうでない。(怪しい太陽光関連にデータらしいものはありますが、出典を調べてもどうもそれらしい情報は見つかりません。)プロットしているデータも東電か全国平均かどうかも書いていません。東電は契約数や月間の消費電力はCSVでダウンロードできる様になっているのでデータ処理する事を前提に提供しています。関電は無い。
そもそも会社がデータをどの程度重要視しているかwebページを見ると分かります。無いところはそういう事です。
さて逼迫している電力と蓄電池を普及する事による貢献をどの様に数字で表現するか?
ノイズはどの様な計測にもつきものです。
(ノイズではなく計測装置の謎の挙動でした。メータの表示も含めてランダムに校正されている様でカットしたら合計の電力がおかしいので元に戻しました。)
会社の1月の消費電力のプロットですが、計測装置の加減で大きな外れ値があるようです。世の中には色々なアナログ回路の作り方が載っています。YouTubeでの解説もあります。
もちろん自己責任になりますが、市場に正規の機器ば入手出来ない状況で動作させる状況は起こりうるので色々な情報をもとに作りました。
まず停電条件を整理します。瞬停で回路が誤作動する事をタイマーで回避します。
停電では回路の制御電源も確保しなくてはいけませんが、今回はバッテリと充電回路は流通している機器をできるだけ使用する事を前提にしています。コンデンサを使ったバップアップはまだまだ調べる事やテストが必要です。
①コンセント100v用にボルテージセンサーを考えます。
マイコン用のセンサーですが、トランスで絶縁している事と二次側の電圧の変更が容易なのでこれを参考にしました。絶縁せず直接ダイオードで整流しても部品点数が減って安くできるのかもしれませんが。
アナログ回路で設計するので交流電圧を整流して積分する事にします。
半波整流でも全波整流でも良いのですが、全波整流でダイオードが1個壊れて判定がおかしくなってもどうかと思い半波整流を考えています。それも想定して全波整流で進めるのも良いかもしません。
100vと60vで直流電圧で8.5vと4.9vを判定の為コンパレータに渡して判定です。ちょっとしたアナログ回路をつくっているとネットで便利な情報があったりします。
LT SPICEでシュミレートで確認すると動かない。
一見動きそうな点滅回路、、、
コンデンサーに電荷が溜まってベースの電圧が上がって動作を繰り返すと書いてあります。定番のタイマー回路ですが、いざ使うとなるとうる覚えで躓きました。
トランジスタ技術のページの解説は間違いないですが、ちょっと理解が難しい。
でも実践的な解説が多いです。
LT SPICEも使い慣れているわけではないのでもう少し時間が掛かりそうです。
バックアップ電源の自作にBMS(バッテリーマネージメントシステム)を調べたら蓄電池はアメリカも中国もかなり普及していてて日本は金儲けと規制のせいで一部の人しか使えない様になっています。
中国で作ってアメリカで使って改善案が中国に送られると言う流れになっています。
日本で使っている人はネット上の情報に翻弄されている感じ…
直流の恐ろしさも余り知られていないので早晩事故が起こってまた規制が強化されそう…
蓄電池収納盤の開発が必要…
と言っても日本語環境なのでガラパゴス化と言った方が性格かも?
殆どのソフトでは半角や全角文字等も数字の変換が問題ないのですが、機械学習に使うpandas(python)は見事に認識しません。
ハマっているのはこうです。
ValueError: invalid literal for int() with base 10: '5,300.00'
エクセルで取り込んだデータの数字が5,300.00でした念の為データフレームの列を正規化df['見積金額'].str.normalize("NFKC")としてもエクセルの',''.00'は半角としても文字と認識するようで5,300.00を型変換しても上記の様なエラーが出ます。
pandasは数字として認識しません。5300にしてやっとstr()からint()に変換出来ました。
国内の会社でデータサイエンスをしている人には常識かもしれませんが、かなりの時間悩みました。
強制的に変換するとNaNになってしまいます。
#df['見積単価'] = pd.to_numeric(df['見積単価'], errors='coerce')
変にコピペできない様にコメントアウトしています。
マルチインデックスにしても上手く順番通りにならないエラーはまだ不明です。
pandasのメソッド自体が間違っているのかでも悩むのにこの手のエラーはタチが悪いです。
0 5300 1 7163000 2 0 3 0 4 0 ... 217849 5836700 217850 6517200 217851 1954400 217853 0 217854 0 Name: 見積金額, Length: 194891, dtype: object
0 5300 1 7163000 2 0 3 0 4 0 ... 217849 5836700 217850 6517200 217851 1954400 217853 0 217854 0 Name: 見積金額, Length: 194891, dtype: int64
整数型に変換出来ました。
まず必須条件はクラウドサービスにする事。
システムの安全性は問題は殆ど無く、むしろ人為ミスによる情報漏洩やセキュリティの問題が憂慮されます。その為には扱う全ての人はクラウドやセキュリティの知識は教育が必要です。
国内の有料クラウドサービスのサイボーズやkintounはカスタマイズが出来るとはいえ費用は可成り掛かります。
その点Google Workspaceは無料で必要なサービスは網羅されており必要に応じて簡単なプログラムを追加する事が出来有料サービスの部分もカバーが可能です。
海外の有料クラウドサービスもありますが資料がオンラインで使うにもプログラマーとしてのスキルも必要になります。
有料サービスはいずれにしてもリスクがあります。サービスが突然中止される事もあります。
その点Googleがなくなる事はリスクとしては低く、サービスの中止や変更もありますが、基本使われない機能のサービスが中止される事が殆どです。
マイクロソフトもクラウドサービスがありますがofficeや過去の商品の連携で時代にあっていないのが現状です。outlookなどの単体サービスを有料で使う方が現実的です。
さて具体的にGoogleサービスを使う理由はスプレッドシート(エクセル)、 ドキュメント(ワード)、スライド(パワーポイント)とオフィスの機能は網羅されておりそれぞればオンライン上で連携出来ます。それぞれの資料はGoogleドライブ(オンラインストーレッジ)にセキュアーな状態で保存されて必要な人がアクセスできる様になっています。しかも無料です。
G mailやその他オンラインミーティングのアプリもあります。
例えば表計算ソフトの中のセルやドキュメントの特定の部分にコメントをつけて適宜担当者に修正を依頼すると担当者にメールでそれぞれの資料の特定の部分にコメントがついた状態で確認出来ます。担当者が必要な修正を加えてチェックをつければ依頼者に完了のメールが行きます。また期日の設定はGoogleカレンダーに反映されて必要に応じてリマインドされます。
印刷物にチェックをいれて人が管理するとミスや失念される事は避けられません。
その意味ではGoogleのサービスは常に改良や機能追加があるので使わない手はないです。
DXについて下記の様な問題がありますが、抽象的です。なので便利なサービスを使いながら理解していくのが良いと思います。
「DXとは、私たちが顧客へのより高い・新しい価値提供を行うための手段です」
社内のデータインフラにはDXを推進する上でいくつか重大な設計・運用上の問題がありました。
一言で言えば、データ活用できる形でデータが溜まっていない、かつ接続できない状態でした。
IT担当者や利用者に色々とヒアリングしてみた結果として分かったことは、「データ活用するという意識もリテラシーも無いまま、短期的なニーズベースでデータインフラを作ってきた」ことが原因ということでした。
これは後述の人材育成にも関わってくる問題で、個人的には今年の最優先課題でした。
例えば、自動化が進めば工数が減る、というのは費用対効果として数字で算出できますが、その空いた時間(デジタル化によって生まれた”余力”)でできること(デジタルを前提とした新規ビジネスの検討等)の定量的な評価はできません。
一方で、DXは単なるデジタル化や自動化ではないので、目指したいのはそういう後者の取り組みになるはずですが、そこで費用対効果を突き詰めてしまうと足元のデータインフラ改善は全く進まなくなってしまいます。
どう言う事か理解してもらえないと社内データの収集もままならない感じです。
来年の売上予測や来月の予測をしても役に立つのか?
物流の最適化もあります。
例えば客先、客先担当者、容量別、納品場所等で問題自身を確率で予測すれば対策の役に立つかもしれません。また在庫の日数や連絡の状況で費用が掛かっています。それも予測出来れば対策の役に立つかもしれません。コストを削減出来れば当社及び客先にも貢献出来る筈。
それぞれの項目の因果関係をヒートマップで分析さたら分かりやすいか?
必要なデータは欠損やデータをダミー(平均値や中央値)で補ってそれを機械学習にかけてどの様に出るかをご覧頂いてデータの意味を理解する必要があります。
どの予測器が良いかも分かりませんので、基本にかえってタイタニック乗員の生存率から進めて行きます。欠損値やダミー変数の扱いも含めて進めて行きます。
もちろん太陽光関連の特殊な盤をはじめ、水力発電所の力率調整器、スターリングエンジンを使ったバイオマス制御盤、海外の太陽光キュービクル。
主要な部品が入手困難になってきて得意な商品の生産が難しくなったので他に切替えると行ってもそう簡単にいかないとはいえ何もしないと前には進みません。
といってなんでもやりますと営業した所で足元をみられるだけです。作りたいものを作るのではなく作って欲しいものを作るのが望まれる訳です。
社内はいろいろなデータが保存されています。データサイエンスはそのデータから価値を見出すのです。
例えば今まで作った図面を閲覧出来る様にすれば可能性を信じていくらかの新規案件が来るかもしれません。ある程度纏まって出来ない時間にできる事を模索する時なのかもしれません。
もちろん図面を模倣される為に情報を開示すれば良い訳ではありません。例えば図面をサムネイル化してイメージを掴む程度で公開すればデータも軽く多く閲覧出来、データを有効活用出来ます。
それぞれを分類して検索しやすくするのも工夫が必要で手間も時間も掛かります。
作業で再現するのも大変ですが、これを一から作るのはもっと大変です。
もちろんすんなりいきません。
作ったときと今とではバージョンが違うのでそれだけでも一苦労です。
ここまで来るのも一苦労、これからまだ作業と検証が必要。
2回目以降の手順シェルスクリプトで
source activate yad2k
keras-yolo3-masterフォルダに入ってから
python convert.py wiwao_train.cfg wiwao_train_6000.weights model_data/murou.h5
2回目はconda activate downgradeしてから
cd yolo_coreml
coreml_model = coremltools.converters.keras.convert('/Users/wiwao/Documents/keras-yolo3-master/model_data/murou.h5', input_names='input1', image_input_names='input1', image_scale=1/255.)
一旦今のファイルを消す
(base) wiwaoMacBookPro:bin wiwao$ sudo rm -i w_t.mlmodel
それから新規ファイルをコピーする。
sudo cp w_t.mlmodel /Applications/Xcode.app/Contents/Developer/usr/bin
python coreml.py
pip でインストールすると仮想環境では使えない。yolov3はpython3.7でtensorflow==1.14でないと使えない。
git clone https://github.com/allanzelener/yad2k.git
cd yad2k
To replicate the conda environment:
conda env create -f environment.yml
で重なっているファイルは全て消す
ResolvePackageNotFound:
結局下記でインストール出来た。
name: yad2k
channels:
- defaults
dependencies:
- pip:
- keras==2.0.3
- protobuf==3.2.0
- pydot-ng==1.0.0
- theano==0.9.0
prefix: /home/wiwao/anaconda3/envs/yad2k
prefixは上記の様に自分の環境に合わせる。
source activate yad2k
YAD2Kも下記の様にバージョン指定して必要なものは合わせてインストール
conda install keras==2.2.4
conda install -c anaconda tensorflow==1.14
keras-yolo3-masterフォルダに入ってから、以降もanaconda環境のYAD2K中で作業を行います。
まずconvert.py を実行しますが、このままではエラーが出てしまうので、convert.pyの88行目をinput_layer = Input(shape=(416, 416, 3))に変更します。
ウェイトをダンロードしてから下記を必要に応じて変更
python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5
次に、同じディレクトリへ該当するweightsファイル、そして学習で使ったcfgファイルを入れておきます。
cfgファイルのはじめに設定しているパラメーターを bach=1 subdivisions=1に変更しておき、以下のコマンドで 新たにh5ファイルを作成します。cfg、weightファイル名はコピーしたそれぞれのファイル名に変更し、.h5ファイルは好きな名称を付けます。
この例ではdataフォルダにh5ファイルができます。
conda の(downgrade) でpythonのバージョンを3.7.11に落として
Apple 提供のcoremltoolsをインストールします
anaconda install coremltools
新たにフォルダを作成し(yolo_coremlと仮定)
mkdir yolo_coreml
cd yolo_coreml
wiwaoMacBookPro:yolo_coreml wiwao$ conda install coremltools
conda install keras==2.2.4
conda install -c anaconda tensorflow==1.14
仮想環境を行き来するせいか絶対パスに書き換える
import coremltools
coreml_model = coremltools.converters.keras.convert('/Users/wiwao/Documents/keras-yolo3-master/model_data/yolo.h5', input_names='input1', image_input_names='input1', image_scale=1/255.)
coreml_model.input_description['input1'] = 'Input image'
coreml_model.author = 'Original paper: Joseph Redmon, Ali Farhadi'
coreml_model.license = 'Public Domain'
coreml_model.short_description = "The YOLOv3 network from the paper 'YOLOv3: An Incremental Improvement'"
coreml_model.save('w_t.mlmodel')
python coreml.py
の実行で、フォルダ内にw_t.mlmodelファイルが作成されます。多少時間がかかります。
## Package Plan ##
environment location: /Users/wiwao/opt/anaconda3/envs/downgrade
added / updated specs:
- coremltools
The following packages will be downloaded:
package | build
---------------------------|-----------------
coremltools-4.1 | py37hf099865_1 2.9 MB
------------------------------------------------------------
Total: 2.9 MB
The following NEW packages will be INSTALLED:
coremltools pkgs/main/osx-64::coremltools-4.1-py37hf099865_1
The following packages will be UPDATED:
ca-certificates anaconda::ca-certificates-2020.10.14-0 --> pkgs/main::ca-certificates-2021.10.26-hecd8cb5_2
certifi anaconda::certifi-2020.6.20-py37_0 --> pkgs/main::certifi-2021.10.8-py37hecd8cb5_2
Proceed ([y]/n)? y
cp w_t.mlmodel /Applications/Xcode.app/Contents/Developer/usr/bin
/Applications/Xcode.app/Contents/Developer/usr/bin/coremlc compile w_t.mlmodel /Users/wiwao/yolo_coreml
(base) wiwaoMacBookPro:bin wiwao$ /Applications/Xcode.app/Contents/Developer/usr/bin/coremlc compile w_t.mlmodel /Users/wiwao/yolo_coreml
/Users/wiwao/yolo_coreml/w_t.mlmodelc/coremldata.bin
/Users/wiwao/yolo_coreml/w_t.mlmodelc/model.espresso.weights
/Users/wiwao/yolo_coreml/w_t.mlmodelc/model.espresso.shape
/Users/wiwao/yolo_coreml/w_t.mlmodelc/model.espresso.net
/Users/wiwao/yolo_coreml/w_t.mlmodelc/model/coremldata.bin
/Users/wiwao/yolo_coreml/w_t.mlmodelc/neural_network_optionals/coremldata.bin
(base) wiwaoMacBookPro:bin wiwao$
How to make YOLOv3 Pre-learned files.
ここからは十分に経験と知識のある方、NVIDIAのGPUを積んだLinuxマシンが動く環境が使える方が対象です。最初は非常に複雑なインストール作業を伴いますが、2回目以降はさほどでもありません。概要は以下の通りです。内容を理解した段階でMac側の一連の作業をPython等にまとめると効率が上がります。
linuxマシンで学習->学習済みweightsファイルをmacにコピー->h5ファイルに変換->coremlファイルに変換->coremlcファイルに変換->txtファイルを3つ作成-->zipに圧縮
From here, it is for those who have sufficient Deep learning experience and knowledge, and who can use an environment where Linux machines with NVIDIA GPUs can run. The first involves a very complex installation(according to https://github.com/AlexeyAB/darknet), but not much after the second time. The outline is as follows. When you understand the contents, you can improve the efficiency by grouping a series of tasks on the Mac side into Python.
Learning on linux machine-> Copy learned weights file to mac-> Convert to h5 file-> Convert to coreml file-> Convert to coremlc file-> Create three txt files-> Compress to zip
学習データ画像はThermal Cam3xで録画したファイルを使います。アノテーション及び学習方法はこのページを参照して下さい。
YOLOオリジナルデータの学習 - Take’s diary
YOLOオリジナルデータの学習その2(追加学習) - Take’s diary
さらに詳しい内容は以下URLを参考にして下さい。
darknet/cfg at master · AlexeyAB/darknet · GitHub
iOSで実行するためには特に以下の設定が必要です。
The learning data image uses a file recorded with Thermal Cam3x. Please refer to this page for annotation and learning methods.
YOLOオリジナルデータの学習 – Take’s diary
YOLOオリジナルデータの学習その2(追加学習) – Take’s diary
Please refer to the following URL for further details.
darknet/cfg at master · AlexeyAB/darknet · GitHub
In order to run on iOS, the following settings are required.
Use yolov3-voc.cfg or yolov3.cfg as the configuration file (CFG file).
The size of the input image is limited to with = 416 heights = 416.
The configuration file of YOLOv3.cfg is also explained on the reference page, but it is necessary to change a total of 10 or more locations in relation to the class
Download and use darknet53.cov.74 as the initial weights file to speed up learning convergence.
以下python3.7用のanaconda環境を作り、YAD2K及びkerasをインストールします。インストール方法は各々冒頭に記述されています。ただし最初のKerasインストール時はTensorflowインストールコマンドのみ conda install -c anaconda tensorflow==1.14 つまりtensorflowのバージョンは1.14にして下さい。
Create Anaconda environment for python3.7 below and install YAD2K and keras. Each installation method is described at the beginning. However, when installing Keras for the first time, only the Tensorflow installation command is used. Conda install -canaconda tensorflow == 1.14 That is, tensorflow version should be 1.14.
GitHub - allanzelener/YAD2K: YAD2K: Yet Another Darknet 2 Keras
GitHub - qqwweee/keras-yolo3: A Keras implementation of YOLOv3 (Tensorflow backend)
keras-yolo3-masterフォルダに入ってから、以降もanaconda環境の中で作業を行います。
まずconvert.py を実行しますが、このままではエラーが出てしまうので、convert.pyの88行目をinput_layer = Input(shape=(416, 416, 3))に変更します。
次に、同じディレクトリへ該当するweightsファイル、そして学習で使ったcfgファイルを入れておきます。
cfgファイルのはじめに設定しているパラメーターを bach=1 subdivisions=1に変更しておき、以下のコマンドで 新たにh5ファイルを作成します。cfg、weightファイル名はコピーしたそれぞれのファイル名に変更し、.h5ファイルは好きな名称を付けます。
この例ではdataフォルダにh5ファイルができます。
After entering the keras-yolo3-master folder, the following work is also performed in the anaconda environment.
First of all, convert.py is executed, but an error will occur if this is done, so change the 88th line of convert.py to input_layer = Input (shape = (416, 416, 3)).
Next, put the corresponding weights file in the same directory and the cfg file used for learning.
Change the parameter set at the beginning of the cfg file to bach = 1 subdivisions = 1, and create a new h5 file with the following command. Change the cfg and weight file names to the copied file names, and give the .h5 file a name of your choice.
In this example, an h5 file is created in the data folder.
./convert.py yolov3.cfg yolov3.weights model_data/yolo.h5
Apple 提供のcoremltoolsをインストールします
pip install coremltools
新たにフォルダを作成し(yolo_coremlと仮定)
mkdir yolo_coreml
cd yolo_coreml
以下のpythonプログラムを作成します
この中で3行目の ../../keras-yolo3-master/model_data/yolo.h5 は先ほど作成したh5ファイルを指定して下さい。
Install coremltools provided by Apple
pip install coremltools
Create a new folder (assuming yolo_coreml)
mkdir yolo_coreml
cd yolo_coreml
Create the following python program
In this, please specify the h5 file created earlier for ../../keras-yolo3-master/model_data/FLIR_J.h5 on the third line.
coreml.py
--------------------------------------------------------------------------------------------------
import coremltools
coreml_model = coremltools.converters.keras.convert('../../keras-yolo3-master/model_data/yolo.h5', input_names='input1', image_input_names='input1', image_scale=1/255.)
coreml_model.input_description['input1'] = 'Input image'
coreml_model.author = 'Original paper: Joseph Redmon, Ali Farhadi'
coreml_model.license = 'Public Domain'
coreml_model.short_description = "The YOLOv3 network from the paper 'YOLOv3: An Incremental Improvement'"
coreml_model.save('w_t.mlmodel')
--------------------------------------------------------------------------------------------------
python coreml.py
の実行で、フォルダ内にw_t.mlmodelファイルが作成されます。多少時間がかかります。
python coreml.py
Execution will create a w_t.mlmodel file in the folder.
16bitモデルは認識率が多少落ちるので、用途に応じて対応して下さい。16bitモデルに変更する場合は以下のpythonプログラムを作成して実行します。
The 16bit model has a slightly lower recognition rate. To change to the 16bit model, create and execute the following python program.
convert16.py
--------------------------------------------------------------------------------------------------
import coremltools
model_spec = coremltools.utils.load_spec('./w_t.mlmodel')
model_fp16_spec = coremltools.utils.convert_neural_network_spec_weights_to_fp16(model_spec)
coremltools.utils.save_spec(model_fp16_spec, 'w_t.mlmodel')
--------------------------------------------------------------------------------------------------
mlmodelをコンパイルしてmlmodelcファイル(実はフォルダ)を作成します。必ず最終ファイル名はw_t.mlmodelcであることを確認して下さい。
Compile mlmodel and create mlmodelc file (actually folder). Make sure that the final file name is w_t.mlmodelc.
/Applications/Xcode.app/Contents/Developer/usr/bin/coremlc compile w_t.mlmodel ./
w_t.names : 学習に使ったクラス名称ファイルで、ファイル名称を変更して使用します。
w_t.txt :「3.認識結果アラートの設定方法」を参考にして下さい・
REDME.txt :名称、内容とも任意で、実際には使用しません。今回の作業ファイルはすべて同じ名称にしなければないので、後から確認できるようにデータ内容の説明を記入して下さい。
w_t.names : The class name file used for learning is used by changing the file name.
w_t.txt : Refer to “3. Setting method of recognition result alert”.
REDME.txt : Name and content are optional and are not actually used. All work files must have the same name, so please enter a description of the data so that you can check it later.
w_tフォルダを作成して、中にw_t.mlmodelcフォルダ、w_t.names、w_t.txt.、README.txtをコピーします。
Create a w_t folder and copy the w_t.mlmodelc folder, w_t.names, w_t.txt., and README.txt into it.
w_tフォルダをzipに圧縮します。iPhoneから一番使いやすいダウンロード先はiCloudです。今回のThermal Cam3xはフォルダ名がw_t限定なので、モデル毎にフォルダ管理して下さい。
Compress the w_t folder to zip. The easiest download location for iPhone is iCloud. Since this Thermal Cam3x folder name is limited to w_t, please manage folders for each model.