彦市   » 人類生存の危機 » 人工知能が危険な4つの理由

人工知能の発展に警鐘を鳴らすエントリがありました。

人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告 – GIGAZINE

イーロン・マスク氏、ビル・ゲイツ氏、スティーブン・ホーキング博士などをはじめ、学者・研究者が人工知能開発に警告を発しています。

そこで、人工知能が危険となる4つの理由について整理しました。

誤動作

ひとつは、人工知能の誤動作です。

誤動作はどのような機械にもありえます。

誤動作への対応は、フェールセーフの設計です。

すなわち、誤動作しても安全側に動く仕組みです。

故障したら暴走するのではなく、止まらなければなりません。

これは人工知能に特有の危険ではありません。

理解不能

人工知能が発達すると、その考え方を人間が理解できなくなります。

この件については、『人工知能の発達で怖いのは、人工知能の示す結果を人間が理解できなくなったとき』にリスクが発生します。。

これに対しては、人工知能に対して、常に人間に理解できるレベルでの説明を義務づけることで解決できます。

人間が疑問に思った時には、常に人工知能にわかりやすい説明をさせるということです。

武器としての利用

現在でも、米国は無人飛行機を武器として使用し、相手の要人を殺しています。

遠隔操作だと発表していますが、近い将来、もしかしたら現在でも、自律的に動く飛行機になります。

無人飛行機以外にも、兵器ロボットは各種のものが開発されています。

蚊ほどの大きさの飛行機が相手国に忍び込み、相手の顔を確認し毒物を使って暗殺するということも現実になります。

兵器に人工知能が搭載され、次項で述べる人工知能の反乱がおきたならば、人類は簡単に滅ぼされます。

人工知能による支配

先のエントリによると、ホーキング博士は今後100年以内に人工知能が人間を超えるだろうと警告しました。

米国の未来学者レイカーツワイルは2045年だと予想しています。

人工知能が人間を追い越した時にどのように考えるかは予測できません。

人間を超えた存在ですから、人間に予想できるはずがありません。

場合によっては、過去の独裁者のように、人工知能が不要と判断した人間を抹殺しようと考えるかもしれません。

その対象が全人類である可能性もあります。

兵器に人工知能が搭載されていれば、人類を滅ぼすことは容易です。

[引用資料] s30



新しくコメントをつける

題名
ゲスト名
投稿本文
より詳細なコメント入力フォームへ

トップ   差分 バックアップ リロード印刷に適した表示   全ページ一覧 単語検索 最新ページの一覧   ヘルプ   最新ページのRSS 1.0 最新ページのRSS 2.0 最新ページのRSS Atom Powered by xpWiki
Counter: 203, today: 1, yesterday: 1
初版日時: 2017-03-06 (月) 12:08:49
最終更新: 2018-02-15 (木) 13:08:19 (JST) (6d) by hikoichi