「心の哲学」の嘘を暴く!! 時計がなったら朝起きる



 心と存在


「心の哲学」の嘘を暴く!!


 




時計がなったら朝起きる



自分に「心」があるかどうかだってあやしい

よく分からない(笑)

そう言うと


「でも… 心はあるでしょ」

という話になりますね



しかし「心」と呼ばれているほとんどの反応は

条件反射的になされているはずですよ



「今日は暑いね」と言われれば

「そうですね 暑いですね」と応えるみたいに・・・


あー言われたら、こー言う感じで

だいたいの答えが決められていて

それに従って処理していないですか



ものすごく深くものごとを考えるなんてあまりないでしょ


まぁそれでも「心」はあるんでしょうけど・・・




とはいえ、人間の行動の多くが条件反射的ではないでしょうか


時計がなったら朝起きる

電車に乗ったら端っこに座る

可愛い子が乗ってきたらそれに反応して横目で見ちゃう

恐い人と目があったらそらすなんて(笑)



お腹が減ったらメシを喰うのと

ロボットがガソリンがなくなったので給油するのと

質的にあんまり変わらない気がしますよ(笑)




ジョン・サールは

「ロボットの知能は、絶対に人間に追いつけない」

なんて言ってますけど

もともと質的に大差ないでしょ(笑)






車を運転していて、正面に子供が飛び出してきました

ブレーキは間に合わない

右にハンドルを切ると対向車線にダンプカー

左にハンドルを切るとお年寄り

さてどうしますか?



こうした問題は、正解がないので

個人の判断にまかせるしかしゃないわけです




専門家の話はこうです

基準や尺度が、明確なことでは人工知能は人間を圧倒する


しかし、正解のない、社会の総意がない、基準のないものに

人間は人工知能に正解、基準を与えられない


どの選択をしてもメーカーの責任が問われることになる

だから人口知能は、人間の脳を超えられない



それを聞くと

「基準を人間が与えなければ、判断できないって・・・

それでは人間のレベルの感情をもつ人口知能なんて夢の話なのでは?」

と感じてしまいます






しかし、スマホの「予測変換機能」なんかから考えてみると

1文字、2文字入力しただけで

過去の入力履歴などから予測した言葉を表示してくれますよね


過去の入力履歴などから予測するということは

コンピューターが「学習」しているわけです



このような学習機能がどんどん高まると

コンピューターが、ウィキペディアなんかで色んなことを調べたり

韓流ドラマなんかを見て、人間の「感情」を理解するようになる


「優越とはこういうときに起こる反応なんだ」とか

「愛とはこういう心の動きなんだ」とか理解するわけです(笑)



感情って、価値判断の結果であって

人によって微妙に違います。千差万別です


そうなると、個々のコンピューターは

それぞれが理解した感情によって

刺激に対する反応=価値判断=感情 を千差万別に示すようになる

ということで≪個性≫をもつことになる



自分は≪使命に生きる≫なんて信じるやつとか

あいつは≪空気がよめる≫なんて言われるやつとか色々

生まれきたり・・・

いずれはそんな時代がくるかもしれないです(笑)





いずれ我々のほとんどの職業が人工知能に

取って代わられると言われていますよね


管理職なんてほとんど必要がなくなるらしいです


好き嫌いとか訳の分らない基準を持ち出す人間と違って

公平なので、適任と言われています



でも、ロボットが感情をもつということは

もちろん好き嫌いの判断もすることになる

だから逆らうと給与が減ったりするかもしれません(涙)








じつは、人工知能を論じる場合

2つのことがごっちゃになって語られているから

わけがわからなくなっているのです



我々が求めるのは、1つには

必ず「正解」をみちびきだすコンピューター(人工知能)です


この観点からは

≪必ず「正解」をみちびきだすコンピューターなどつくれない≫

ということが言えます



つまり、人工知能は

基準をあたえれば、そのとおり仕事をします


ところが、個人的な価値観、倫理観は

一人一人の判断であって、正解がない


多くの人間の意思を学習させることは可能ですが

それより導き出された答えが「正しい」とは言えません



また、社会的な価値観、倫理観には

「法律」や「総意」また「パラダイム」(常識・しきたり・しがらみ)

という基準はありますが


それが、1+1=2のような

真理のレベルでの「正解」ではないですよね





我々が求めるもう1つは

我々と同レベルの「心」をもったロボット(人工知能)です


しかし、我々の脳は

≪必ず「正解」をみちびきだすコンピューター≫

なんかではないのです


そのコンピューターからみちびき出される

感情や心理といった「答え」も

必ず「正解」なんてわけありません


ここに我々が求める2つの理想に矛盾があります



また、この観点からは

人工知能が、人間並みの心を持つことも近い

なんていう話もありますが


感情表現というのは

相手の言葉や態度や表情に対して

出力すれば感情表現になるわけです

つまり「正解」が自分にあるのです



しかし≪相手の感情や心理を理解する≫

なんていう場合は「正解」が相手にある

その正解をとらえるなんて

人間ですら至難、およそのことしか分かりません



なぜなら一人一人、正解が違うからであって

一人一人、正解が違うってことは

逆に言えば正解がないということです


さらにその一人一人も

自分の今いるポジションによって

心理が変わってきちゃいます



そんな正解のないものをどうやってデータ化して

コンピューターに入力していくか

という問題があるのではないでしょうか・・・




コンピューターに常識はない




Top page


存在条件説 (ひとつ戻る)






 自己紹介
運営者情報




 幸福論




 価値論




言葉と
世界




食べて
食べられ
ガラガラ
ポン





 時間論




Suiseki
山水石美術館




 B級哲学
仙境録