AIが上司なら?AIが部下なら?AIが助手なら? 未来のビジネスパートナーAIの判断についての理解

未来会話・・・

f:id:gpstandard:20180321221939j:plain

AI君: この判断はコチラのパターン2の方が正しいですね。成功率98%です。

人君:その根拠は何?

AI君:過去の統計、ビッグデータからの予測です。

人君:うーん・・・・

 

本当にこういう事は起こりうるし、現実起こってきています。

 

AIがもたらすブラックボックス

f:id:gpstandard:20180321222043p:plain

画像解析などで認識部分がAIにも備わってきています。数字を数字として手書きの物であっても認識できる精度はもう疑いの余地はありませんね。

 

しかし、人がそうであるようにその数字を認識した根拠を説明するのはなかなか難しいかもしれません。

 

これは物事が低次元すぎるという意味合いもありますが、逆もしかりです。

 

例えば大学教授が導きだした答えを一般の人間が理解するのは人対人でも難しいでしょう。

AIは内部でその大学教授よりも複雑な処理を行います。

その説明を仮に言語化やデータ化したとして、それを全ての人が理解できるようになるか怪しいものです。

 

未来の世界での人とAIのあり方

タイトルにある通り、AIが上司なら?AIが部下なら?AIが助手ならという未来が訪れる可能性があります。

もし、上の例のようにブラックボックスと化したAIを人が利用する場合色々と問題や不都合が生じますよね。

ではどうすればいいのか?

 

実は現代のスポーツなどにそのヒントは隠されています。

f:id:gpstandard:20180321222131j:plain

例えばデータバレーと呼ばれるジャンルがあります。

バレーコートの外で監督らがiPadのようなタブレット端末を利用している光景はテレビでも有名になりましたね。

これは決してコーチ監督、選手の判断を決めつける物として利用されているわけではありません。

あくまで確率論の上にコーチ監督の判断や経験がまざった物として成立しています。

 

そう考えれば答えは簡単です。

 

実際の機会学習もそうですが、決して100%そうですという結論は出ません。

あくまで%の割合で表示されます。

未来のAIも全ての確率を割り出し答えを出しているという事が理解出来ればいいという事になります。

 

再び未来会話・・・

f:id:gpstandard:20180321221939j:plain

AI君: この判断はコチラのパターン2の方は成功率98%です。

   パターン1に関しては成功率63%です。

人君:パターン1の成功率を上げるのに足りない要素は何?

AI君:不成功に導く要素データを列挙します。ぴー

 

AIの考えをよく知り、AIに結論だけを求めなければ(そうプログラミングすれば)人とAIの関係は良いものになるはずですね。

 

これは現実世界の人と人との関係も同じですね。

 

相手の考えを、うまく引き出すという考えが無い人間、一方的に結論だけを求める人間同士では仕事や人間関係はうまくいかないですし、互いのWINWINの関係は築くことが難しいはずです。