久留米工業大学(AI)

ミスを犯した時、普通は必ず責任を負う人がいます。しかしそのミスが人工知能によるものだったとしたら誰が責任を負うべきなのでしょうか。機械や人工知能は人間よりもミスが少ないと考えられていますが、それでも絶対にミスをしないわけではありません。
例えば自動運転の車が交通事故を起こした例を考えてみます。従来通りであれば交通事故は起こした人の責任。一方的な追突であれば、その責任のすべてを運転手が負うことになります。しかし乗っていた車が人工知能によって制御されていた場合であれば、事故を起こしてしまう人工知能を作ったメーカーにも責任があると考えられるはずです。仮に自動車メーカーと運転手の両方が責任を負うとして、それぞれどれくらいの割合で責任があるかも考えなければいけません。
**
人工知能が人類の能力を超えてしまうと、今度は人工知能の判断が本当に正しいのか分からなくなってしまいます。
簡単なプログラムであればバグがあっても人間がそれを見つけ、正しく動作するよう修正できます。しかしあまりに成長した人工知能に対してはバグがバグと分かりません。例えば将来的に刑事事件のサポートをする人工知能が登場したとして、その人工知能が無実の人に容疑をかけてしまったとしたら?「よく分からないけど人工知能が犯人だと言っているから犯人なんだろう」と考えるのは危険です。
**
いくら高性能な人工知能があっても、真に実力を発揮するためには判断の元となる大量のデータが必要です。実際、Webサイトに掲載される広告やYouTubeのおすすめ動画などはすでに人工知能の力を借りています。ユーザーがこれまでに見たサイトや検索履歴といったデータがなくては適切な広告やおすすめ動画は表示できません。
一見便利な機能ではありますが、これはユーザーの個人情報が企業に抜き取られているとも考えられます。
企業がどの程度までユーザー個人の情報を集めていいのか、どのように集めた個人情報を管理すればいいのかという点については今まさに問題視されている課題の一つです。

One thought on “久留米工業大学(AI)

  1. shinichi Post author

    便利なだけではない?人工知能が抱える問題点とは

    久留米工業大学

    https://www.kurume-it.ac.jp/future/ai-problem

    お掃除ロボットやスマートスピーカーなど、私たちの身近な範囲でも人工知能を活用した商品やサービスが増えてきました。将来的には自動運転に対応した自動車や医療診断をサポートするロボットなど、人工知能にはさらなる進化が見込まれ今も研究・開発が進んでいます。

    当サイトでもこれまで何度か人工知能に関するトピックを取り上げてきました。例えば以下の記事では人工知能の概要や活用事例について紹介しています。

    身近で使われている人工知能の活用事例をご紹介!掃除機から自動車、あのロボットまで!
    人工知能ができること・できないことは何か?これからの世の中はどう変わる?
    しかしながら良い面があれば悪い面もあるのが世の道理。これは人工知能も例外ではなく、良い面ばかり強調するのは公平とは言えないでしょう。そこで今回は人工知能が具体的にどんな問題を抱えているかについて紹介します。

    **

    人工知能が人間の仕事を奪う可能性

    これまでは単純作業しかできなかった機械ですが、人工知能と手を組むことによって人間のような複雑な判断を下せるようになります。機械がこれまで以上に活躍の場を広げていくことは誰の目にも明らかでしょう。

    しかしながら仕事は無限にあるわけではありません。機械やロボットが導入されることで仕事を失ってしまう人が出てくることも予想できます。なにしろ機械を動かすために必要なのは電気だけ。人間の代わりに機械へ仕事を任せれば、会社の経営者からすると給料だけでなく従業員のために負担している各種社会保険の出費も抑えられます。もちろん初期投資の費用はかかりますが、長期的に見れば社員を雇うよりもずっと安上がり。その上、機械は人間よりもミスが少ないのですから導入しない理由がありません。一般事務や会計など、誰がやっても同じ結果になるような仕事は次々と機械に代替されていきます。

    今働いている人はどうすれば人工知能に仕事を奪われないで済むのか考える必要があります。また、国としても仕事を奪われた人へどのような救済策を取るか考えておく必要があるといえるでしょう。

    人工知能が犯したミスは誰の責任か

    ミスを犯した時、普通は必ず責任を負う人がいます。しかしそのミスが人工知能によるものだったとしたら誰が責任を負うべきなのでしょうか。機械や人工知能は人間よりもミスが少ないと考えられていますが、それでも絶対にミスをしないわけではありません。

    例えば自動運転の車が交通事故を起こした例を考えてみます。従来通りであれば交通事故は起こした人の責任。一方的な追突であれば、その責任のすべてを運転手が負うことになります。しかし乗っていた車が人工知能によって制御されていた場合であれば、事故を起こしてしまう人工知能を作ったメーカーにも責任があると考えられるはずです。仮に自動車メーカーと運転手の両方が責任を負うとして、それぞれどれくらいの割合で責任があるかも考えなければいけません。

    人工知能のミスに関してはまだ現行の法律が追いついていない状況です。法整備が進まなければせっかく技術的に可能になっているものでも運用できないため、この問題を解決する方法も慎重に考えなくてはいけません。

    人間が人工知能の決定を理解できなくなるリスク

    冒頭でも軽く触れた通り、人工知能は今もなお進化を続けています。そのスピードはあまりに急速で、2045年には人工知能が人類を超えると言われているほど。しかし人工知能が人類の能力を超えてしまうと、今度は人工知能の判断が本当に正しいのか分からなくなってしまいます。

    簡単なプログラムであればバグがあっても人間がそれを見つけ、正しく動作するよう修正できます。しかしあまりに成長した人工知能に対してはバグがバグと分かりません。例えば将来的に刑事事件のサポートをする人工知能が登場したとして、その人工知能が無実の人に容疑をかけてしまったとしたら?「よく分からないけど人工知能が犯人だと言っているから犯人なんだろう」と考えるのは危険です。このような問題を避けるため、結果だけを出力するのではなく人間にも納得できる理由が提示されなくてはいけないでしょう。

    人工知能はどこまでプライバシーを集めてよいか

    いくら高性能な人工知能があっても、真に実力を発揮するためには判断の元となる大量のデータが必要です。実際、Webサイトに掲載される広告やYouTubeのおすすめ動画などはすでに人工知能の力を借りています。ユーザーがこれまでに見たサイトや検索履歴といったデータがなくては適切な広告やおすすめ動画は表示できません。

    一見便利な機能ではありますが、これはユーザーの個人情報が企業に抜き取られているとも考えられます。自分のプライベートな情報が他人に盗み見られていると思えばいい気はしませんよね。

    企業がどの程度までユーザー個人の情報を集めていいのか、どのように集めた個人情報を管理すればいいのかという点については今まさに問題視されている課題の一つです。

    人工知能に人権を与えるべきか

    今は誰もが機械をモノと考えているはずです。損得の勘定こそあれど新しいものを買い換える時は躊躇しませんし、不要になれば捨てるのは当たり前ですよね。

    しかし人工知能が今以上に進歩し、人間と同じような感情を持つようになったとしたらどうでしょう。アトムやドラえもんのようなロボットを想像してみてください。もしこれらのロボットが私たちと生活をともにすることとなったら、彼らも同じ人間と考え人権を与えるべきでしょうか?この問いへの答えは人によって180度異なるものになります。

    現状、人工知能はまだ人間と同じレベルには達していません。しかし夢物語と切って捨てるには悠長過ぎる問題です。人間とロボットが将来どうやって共存していくかは今のうちに考えておかなくてはいけません。

    人工知能の問題点を解決するのも重要な仕事

    今回の記事で紹介した通り、人工知能には解決しなくてはならない問題点がまだたくさん残っています。とはいえ人工知能のメリットはあまりに大きく、今さら進化・普及のスピードが落ちることはないでしょう。

    工学の道を志すのであれば技術的な知識やプログラミングスキルを身につけるのは絶対に欠かせないことです。しかし、だからといって倫理や法律の問題は他の人に丸投げ……ともいかないのが現実。人工知能には今回紹介したような問題点があるということもしっかりと認識し、誰もが納得できる解決策を考えるのも技術者にとって重要な仕事なのです。

    Reply

Leave a Reply to shinichi Cancel reply

Your email address will not be published. Required fields are marked *