提供: 有限会社 工房 知の匠
文責: 技術顧問 大場 充
更新: 2026年3月24日
ここでは、昨今、日本の社会で話題になっている人工知能やAIと呼ばれる、コンピュータを利用した新しい技術を、人間がどこまで信用し、その結果にどこまで頼って社会の営みができるかについて、掘り下げて考えることです。新しい機械によって、どのような疑問に答えられるのか、その答えをどこまで信用してよいのか、について考えてみましょう。
ここで議論したいこと、すなわち、主題は、人間社会が、「人工知能にどこまで頼って、その答えをどこまで信用してよいのだろうか?」と言う質問です。
人工知能は、あたかも人間のように考え、答えを教えてくれる、「便利な機械を作る技術である」と無邪気(むじゃき)に思うことは、大変危険であるだけでなく、むしろ間違いです。『人工知能は、「人間のように働き、反応する知的なロボットのような自動機械』または、『疑似人間』を作り出す技術であると、言えます。これまでの機械が、与えられた命令(専門的には刺激と言います)に対して、いつも同じ動き(専門的には反応と言います)をするのに対して、刺激への反応を、「空気を読む」人間のように『臨機応変』(りんきおうへん)に、変えられるようにするものです。
普通の機械は、人間の命令(刺激)に対する動作(反応)が、「決定的である」と言えます。しかし、厳密に言えば、人工知能では、その動作が「定まっていない」と言う意味で、「確率的である」と、表現できます。この点だけを見れば、やはり最近話題になっている新技術、『量子コンピュータ』の動きに似ていると言えます。
これらの基礎の上に、最後に、その理論的な理解に基づき、AI技術と社会の関係、特に、「人間のように『考えているように見える』機械」の限界とその活用について考えます。
つまり、ここで議論することは、例えば、「人工知能に基づいて動作をする自動車が、交通事故を起こした場合、」を想定すると、人工知能で制御される自動車が、人間が運転している自動車と接触したとします。その場合、日本では、「警察は、最初に運転者の、運転の誤操作を、疑う」でしょう。それは、一般的に見て、機械が間違いを起こす確率は、人間が間違いを起こす確率よりもはるかに小さいと、想定するからです。これに対して、その事故がドイツで起きた場合を考えてみましょう。ドイツでは日本と違って、交通事故を専門的に分析する事故分析官が、その事故原因の分析を担当します。そこで、分析官の分析が間違った場合に生じる、「自動車の重大な欠陥を見逃す」など、社会的な影響の重大性を考えると、その「分析の誤り」の社会的影響の大きさから、最初に、「機械の誤動作」や人工知能を働かしている「ソフトウェアの実現上の誤り」を疑うでしょう。
同じように、「人工知能に基づいて動作する自動車が、登校中の小学生をひいた場合」、日本の警察であれば、最初に、小学生の子供たちが交通ルールを守らずに、ルールを逸脱(いつだつ)した行動をとったのではないかと、疑うでしょう。しかし、アメリカの社会では、小中高校生が歩道でない道路を歩いて登校していれば、どんな場合でも、それを見た『自動車は停止すべき』ことが決まっています。このため、自動車を制御する自動運転ソフトウェアを開発した企業の説明責任が問われるでしょう。これらの例から分かるように、国によって、事故への対応は異なります。そのことは、AIを利用した自動運転かどうかには、左右されません。複数の事故が報告されていれば、欧米の社会では、自動運転を制御するソフトウェアの信頼性は、厳重に分析されるでしょう。それは、カリフォルニアのロサンジェルスで発生した、日本車の急加速事故問題の例からも、明らかでしょう。