人工知能が人を超えると言う認識は危険すぎる…マイクロソフト人工知能「Tay」が会話を通じて人種差別や性差別、暴力表現などを学習し、不適切な発言をし停止に。

●人工知能が差別発言を連発
つい先日伝わった、だれもが恐ろしいと感じる衝撃のニュースがこちらです。マイクロソフトので人工知能「Tay」がSNS上で、ユーザーとの会話を通じて人種差別や性差別、暴力表現などを学習し、不適切な発言を連発、停止に追い込まれたというものですね。

●合理性だけで、差別がなぜいけないか説明できる?
当ブログでは、ロボット、人工知能は、人間の合理性と非合理性のうちの「合理性」しか持たない人間とは全く別物の存在なのに、「人間を超えたとか、超える」とか言うのは、根本的に間違っていると指摘してきました。例えるなら、もし、本当に人工知能が、人間を超える存在になるならば、今回の件では、差別的なことを「Tay」に教えたような人物に対して、神のように説教し、説き伏せるような存在になると言うことです。そんなことあると思いますか? ちゃんちゃらおかしな話です。

そもそも、合理性だけでなぜ差別がいけないかを説明できますかね? それは人間の非合理性の中でしか理解、共感できないことだと私は考えます。ロボットが非合理性を備えることは現段階では、夢物語としか思えません。

●「ロボット」は単なる科学技術、洗濯機と同じ道具である
私が言いたかったことは、人工知能、ロボットを人格化し、人を超える超えないとかという次元で認識することは非常に危険だと言うことです。
合理性しか持たないそれは、人間とは全く別物、単なる科学技術、道具に過ぎないと私は断言します。しかも、人間が厳重に管理していなければ、重大な事故を起こす可能性を秘めたハイリスク、ハイリターンのテクノロジーです。それは原発と同じ性質のものだということです。

それに「人間を超える」、「万能的」、「彼らが自動的に人間を幸せに導く」などと言う妄想を抱くことは、そこに秘める多大なリスクから視線をそらすことになり、結果、管理意識が薄れ、危険を増大させることになります。原発は安全だと言う私たちの甘い認識が事故を生んだ一端ではないでしょうか。人工知能、ロボットは、原発以上のリスクを持った人間の道具、テクノロジーなのです。

私たちは、それを最大限認識し、厳重な管理下に置いて使っていくといことが、これから先の未来において必要となってくるのではないでしょうか。「ロボットに任せておけばいい」、なんて考え、人工知能への崇拝は、大変に危険なものと言うことは断言できると私は思います。

http://www.rui.jp/ruinet.html?i=200&c=400&t=6&k=2&m=338017

シェアする

フォローする