無事目的地に到着しました。素晴らしいですね。日常の生活に関係ない様に思うかも知れませんが、これがAIに続いています。
軌道計算にアポロ計画から始まったカルマンフィルターを使って軌道計算をする統計学的手法を今も使っています。直線距離で2億8000万キロ。飛行距離52億4000万キロ、平均時速約10万キロで着陸誤差は半径3m‼︎
アポロ計画の後様々な場面で応用され、GPSデータで車の位置を予測、飛行機やドローンの姿勢制御、AIに使うデータ処理につかわれ、AIスピーカーで音声で検索や家電制等々。(余談ですが、ニールアームストロング氏今年1月19日に82歳で無くなりました。)
ベイズ統計学は日本ではここ10年程で知られる様になった統計学。
カルマンフィルターは逐次ベイズフィルタの一種でベイズの理論から来ています。
日本の今までの統計学は頻度論といって得られたデータが母集団からどの程度の頻度で発生するかを客観的に妥当か判断するものが主流。
例えば政党支持率を母集団(投票権を持つ全員)からサンプルをとって支持率〇〇%
そのサンプルを出来るだけ母集団の忠実な比率にするかを客観的に検証する。
ベイズ統計はその逆であるサンプルからある政党の支持率が〇〇%だった場合の母集団はどの様なものかを推測する。その際はどうしても主観的な検知が働いてしまう。というのは有る程度結果を推定しないと確認が取れません。それがベイズ統計の始まりです。
これがなぜAIや機械学習に役立つのか?
例を変えます。気温30度の時にアイスコーヒーの注文数を予測する。がベイズ統計。
ちょっと強引な感じですが、気温が高いと冷たいものが売れるんじゃないの?って主観です。客観的ではありません。
ある年8月のお店のアイスコーヒーが平均70杯/100杯だったとします。今年の8月にコーヒーを110杯売れれば77杯になる確率が〇〇%。(回帰分析)
雨の確率、駅から10分で他のお店より広いお店の売り上げ予測等。{重回帰分析目的変数が1つ(売り上げ予測)に対して説明変数(駅からの距離とお店の広さ)が2つ以上。}
現代はこれらの想定が間違っていないかを理論や数式で確認する方法がありそれが統計学(データサイエンス)になっています。
それらを行列演算、微分等の数理式を駆使して確度をあげて行きます。
通常アナログで取得した計測装置のデータは環境によってばらつきます。
例えば太陽光発電は日射量、気温、天気によってばらつきます。それらは場所や時間等の条件を限定すれば予測出来ます。ある程度のサンプルがあればそれなりの確率になります。
風の強い地域であればそのデータも必要になるかも知れません。
黄砂や近くの山焼きが影響するかも知れません。調べたデータ(定数)から母集団のパラメーター(変数)を予測するのです。追加で分かった条件を入力すれば精度が上がります。
その条件は初めは分からない事が多いです。そこで主観的に予想や想定をして条件をどんどん追加すれば精度は上がり間違っていれば精度は下がります。
車の自動運転で先の交差点に人が立っています。横断するのでしょうかそのまま立っているのでしょうか?
計測データから先を予測するのです。閾値が超えてからでは今のサービスでは遅いのです。
予測をする事が今の新しい技術です。
推論や予測する事が最先端技術のキーワードの様です。
少し先は高い確率で、それより先は低い確率でそれぞれの%をより早くより高くあげて行く為にいろいろな技術がある様です。
その中で統計学、特にベイズ理論はスタンダードになっています。
どの技術がどのニーズに役に立つのかはやってみないと分かりません。分かりだすとみんな一斉に始めます。今までの技術はある程度コピー出来ます。これからの技術は理論や数式の理解がなくては出来ない様になっています。
AIや機械学習は概略を理解するだけでも半年掛かりました。それでもよく理解できたと思います。
今月ベイズ統計を読み終えたら少しずつ実践して行こうと思います。一読しても分からない理論や数式の連続なのでゆっくり読み解くしかない、、、根気いります。
でも今の日常には何の役にも立たない… 十分吸収出来る程若くも無い…
少しは応用出来る(出来ている?)
吸収する為に残された人生の時間はそれ程無い気もする。
悩んでいるポイントでもあります。
軌道計算にアポロ計画から始まったカルマンフィルターを使って軌道計算をする統計学的手法を今も使っています。直線距離で2億8000万キロ。飛行距離52億4000万キロ、平均時速約10万キロで着陸誤差は半径3m‼︎
アポロ計画の後様々な場面で応用され、GPSデータで車の位置を予測、飛行機やドローンの姿勢制御、AIに使うデータ処理につかわれ、AIスピーカーで音声で検索や家電制等々。(余談ですが、ニールアームストロング氏今年1月19日に82歳で無くなりました。)
ベイズ統計学は日本ではここ10年程で知られる様になった統計学。
カルマンフィルターは逐次ベイズフィルタの一種でベイズの理論から来ています。
日本の今までの統計学は頻度論といって得られたデータが母集団からどの程度の頻度で発生するかを客観的に妥当か判断するものが主流。
例えば政党支持率を母集団(投票権を持つ全員)からサンプルをとって支持率〇〇%
そのサンプルを出来るだけ母集団の忠実な比率にするかを客観的に検証する。
ベイズ統計はその逆であるサンプルからある政党の支持率が〇〇%だった場合の母集団はどの様なものかを推測する。その際はどうしても主観的な検知が働いてしまう。というのは有る程度結果を推定しないと確認が取れません。それがベイズ統計の始まりです。
これがなぜAIや機械学習に役立つのか?
例を変えます。気温30度の時にアイスコーヒーの注文数を予測する。がベイズ統計。
ちょっと強引な感じですが、気温が高いと冷たいものが売れるんじゃないの?って主観です。客観的ではありません。
ある年8月のお店のアイスコーヒーが平均70杯/100杯だったとします。今年の8月にコーヒーを110杯売れれば77杯になる確率が〇〇%。(回帰分析)
雨の確率、駅から10分で他のお店より広いお店の売り上げ予測等。{重回帰分析目的変数が1つ(売り上げ予測)に対して説明変数(駅からの距離とお店の広さ)が2つ以上。}
現代はこれらの想定が間違っていないかを理論や数式で確認する方法がありそれが統計学(データサイエンス)になっています。
それらを行列演算、微分等の数理式を駆使して確度をあげて行きます。
通常アナログで取得した計測装置のデータは環境によってばらつきます。
例えば太陽光発電は日射量、気温、天気によってばらつきます。それらは場所や時間等の条件を限定すれば予測出来ます。ある程度のサンプルがあればそれなりの確率になります。
風の強い地域であればそのデータも必要になるかも知れません。
黄砂や近くの山焼きが影響するかも知れません。調べたデータ(定数)から母集団のパラメーター(変数)を予測するのです。追加で分かった条件を入力すれば精度が上がります。
その条件は初めは分からない事が多いです。そこで主観的に予想や想定をして条件をどんどん追加すれば精度は上がり間違っていれば精度は下がります。
車の自動運転で先の交差点に人が立っています。横断するのでしょうかそのまま立っているのでしょうか?
計測データから先を予測するのです。閾値が超えてからでは今のサービスでは遅いのです。
予測をする事が今の新しい技術です。
推論や予測する事が最先端技術のキーワードの様です。
少し先は高い確率で、それより先は低い確率でそれぞれの%をより早くより高くあげて行く為にいろいろな技術がある様です。
その中で統計学、特にベイズ理論はスタンダードになっています。
どの技術がどのニーズに役に立つのかはやってみないと分かりません。分かりだすとみんな一斉に始めます。今までの技術はある程度コピー出来ます。これからの技術は理論や数式の理解がなくては出来ない様になっています。
AIや機械学習は概略を理解するだけでも半年掛かりました。それでもよく理解できたと思います。
今月ベイズ統計を読み終えたら少しずつ実践して行こうと思います。一読しても分からない理論や数式の連続なのでゆっくり読み解くしかない、、、根気いります。
でも今の日常には何の役にも立たない… 十分吸収出来る程若くも無い…
少しは応用出来る(出来ている?)
吸収する為に残された人生の時間はそれ程無い気もする。
悩んでいるポイントでもあります。
0 件のコメント:
コメントを投稿