292. 過去と未来の可能性
- 2017/06/25
- 22:27
人工知能 天使か悪魔か 2017を見たんですよね。
理由を明確にしめさないAIの意見を取り入れるかという判断は
個人にゆだねられると思いますが、
僕は「わからないもの」は「わからない」と思う性質なので、
利用できないと思います。
とりあえず、報告が上がってきて、
参考にするんであれば、
自分の目で現実を確かめないと
お仕事はできなさそうですね。
ほとんどのAIが教師データというものを利用して、
つまり、過去のデータを利用して、
その中で法則性を見つけて、予測する(あくまで、100%は保証していないですよね?)ことをしているようですね。
つまり、統計的に過去のデータを解析して、
過去の法則性を見つけて未来に応用するらしいです。
また、新たにデータが増えることで法則性の確実性を上げようとすると。
このような手法は、科学技術では使われていますよね。
発見された科学法則が100%再現される範囲で、僕たちは物を作り、技術化して使っています。
100%なので、使えているんです。
しかし、人の行動が解析の対象の場合、
要するに知っているデータの数が多いベテランの人を養成している事になるんだと思います。
そして、その把握しているデータの数は人一人が職業人生をかけて集めた物よりも多いので、
タクシードライバーさんなどでは、成果が上がるんだと思います。
ただ、100%予測が実現すると保証する物ではありませんから、
どこまで自分の人生を賭けられるかというのにも興味があります。
例えば、デイトレーダーさんであれば、いくらまでお金をかけられるのかということなどです。
(デイトレーダーではなく、経営に興味があって株をやりたい人の話とは違っているようでした。)
タクシードライバーさんでは、的中率がどれくらいあるのかなども興味がありました。
小さな失敗をしてもいいところでは使えるんだと思うんです。
(誰がAIの失敗の責任を取るのか知りたいですよね。
責任取れないシステムは人間社会に入れられません。)
これらのAI技術というのは、
経済学による予測と実際の経済との関係に近いのではないかと思います。
分析できるほど沢山のデータがない場合や、全く新しい動向を人がするようになると、
予測できなくなる恐れがあるんじゃないかと思います。
(今までの経済学では、AIが学習するほどのデータがないかもしれないので、今後、精度はあがるかもしれません)
それで失敗して人の命が危険にさらされる事態が起こるのは、反対します。
そういえば、カリフォルニア州や企業さんで提出されたデータから、今後を予測するということをしているらしいですが、
危険があると見なされない書き方を知られて、
嘘を書かれるようになってしまったら、
対応できなくなりますよね。
(参照される過去データは内容が基本的に変わらないでしょうから、ブレイクできちゃいそうですね。)
そうそう、理由がわからない、システムがわからないものに対して、
「合理的な判断」と言っていましたが、
何処に理があるのかわかりませんねぇ。
この判断は困るんじゃないですかね?
将棋のポナンザのように、とても沢山の対局経験があるAIの場合は、
なぜその手が有利だったのかを知るために、
ポナンザに溜められている過去データを解析する必要が出てきていると思います。
過去データからの人の動きの予測ではなく、
一つの価値観に沿った判断によるデータの判別システムの実験ですので、
今日出てきていたその他のAIとは違った性質のAIなんじゃないかと思います。
AI政治家はクリーンだという意見がありましたが、
どのようにでもプログラムを書くことができますので、
プログラムを書く人がクリーンかどうかのリスクは、
普通の政治家さんと同じだと思います。
つまり、AI政治家がクリーンかどうかのリスクは、通常の人と同じとなると思います。
要するに、もし、過去情報のビッグデータを利用するAIに勝とうとするには、
情報収集とその検討のお勉強をきちんとする必要があるようですね。
(AIはそういう人的な物だと思えば良いんじゃないかとは思いますけれど)
結局、熟練さんの養成ということと同じじゃないかと思うんです。
(方法が同じではありませんが)
AIは興味深いのですが、
とにかく「ブラックボックス」にされちゃっていますので、
こちらもしっかりと対応を考えないといけないと思います。
理由を明確にしめさないAIの意見を取り入れるかという判断は
個人にゆだねられると思いますが、
僕は「わからないもの」は「わからない」と思う性質なので、
利用できないと思います。
とりあえず、報告が上がってきて、
参考にするんであれば、
自分の目で現実を確かめないと
お仕事はできなさそうですね。
ほとんどのAIが教師データというものを利用して、
つまり、過去のデータを利用して、
その中で法則性を見つけて、予測する(あくまで、100%は保証していないですよね?)ことをしているようですね。
つまり、統計的に過去のデータを解析して、
過去の法則性を見つけて未来に応用するらしいです。
また、新たにデータが増えることで法則性の確実性を上げようとすると。
このような手法は、科学技術では使われていますよね。
発見された科学法則が100%再現される範囲で、僕たちは物を作り、技術化して使っています。
100%なので、使えているんです。
しかし、人の行動が解析の対象の場合、
要するに知っているデータの数が多いベテランの人を養成している事になるんだと思います。
そして、その把握しているデータの数は人一人が職業人生をかけて集めた物よりも多いので、
タクシードライバーさんなどでは、成果が上がるんだと思います。
ただ、100%予測が実現すると保証する物ではありませんから、
どこまで自分の人生を賭けられるかというのにも興味があります。
例えば、デイトレーダーさんであれば、いくらまでお金をかけられるのかということなどです。
(デイトレーダーではなく、経営に興味があって株をやりたい人の話とは違っているようでした。)
タクシードライバーさんでは、的中率がどれくらいあるのかなども興味がありました。
小さな失敗をしてもいいところでは使えるんだと思うんです。
(誰がAIの失敗の責任を取るのか知りたいですよね。
責任取れないシステムは人間社会に入れられません。)
これらのAI技術というのは、
経済学による予測と実際の経済との関係に近いのではないかと思います。
分析できるほど沢山のデータがない場合や、全く新しい動向を人がするようになると、
予測できなくなる恐れがあるんじゃないかと思います。
(今までの経済学では、AIが学習するほどのデータがないかもしれないので、今後、精度はあがるかもしれません)
それで失敗して人の命が危険にさらされる事態が起こるのは、反対します。
そういえば、カリフォルニア州や企業さんで提出されたデータから、今後を予測するということをしているらしいですが、
危険があると見なされない書き方を知られて、
嘘を書かれるようになってしまったら、
対応できなくなりますよね。
(参照される過去データは内容が基本的に変わらないでしょうから、ブレイクできちゃいそうですね。)
そうそう、理由がわからない、システムがわからないものに対して、
「合理的な判断」と言っていましたが、
何処に理があるのかわかりませんねぇ。
この判断は困るんじゃないですかね?
将棋のポナンザのように、とても沢山の対局経験があるAIの場合は、
なぜその手が有利だったのかを知るために、
ポナンザに溜められている過去データを解析する必要が出てきていると思います。
過去データからの人の動きの予測ではなく、
一つの価値観に沿った判断によるデータの判別システムの実験ですので、
今日出てきていたその他のAIとは違った性質のAIなんじゃないかと思います。
AI政治家はクリーンだという意見がありましたが、
どのようにでもプログラムを書くことができますので、
プログラムを書く人がクリーンかどうかのリスクは、
普通の政治家さんと同じだと思います。
つまり、AI政治家がクリーンかどうかのリスクは、通常の人と同じとなると思います。
要するに、もし、過去情報のビッグデータを利用するAIに勝とうとするには、
情報収集とその検討のお勉強をきちんとする必要があるようですね。
(AIはそういう人的な物だと思えば良いんじゃないかとは思いますけれど)
結局、熟練さんの養成ということと同じじゃないかと思うんです。
(方法が同じではありませんが)
AIは興味深いのですが、
とにかく「ブラックボックス」にされちゃっていますので、
こちらもしっかりと対応を考えないといけないと思います。