自律兵器の禁止を求める書簡が発表―スティーブン・ホーキングら著名な研究者が署名 | GameBusiness.jp

自律兵器の禁止を求める書簡が発表―スティーブン・ホーキングら著名な研究者が署名

「ターミネーター」に代表される映画やゲームなどのSF作品群に多く登場する自律兵器。昨今、現実の軍事技術として研究開発が進められている分野でもありますが、AIやロボット研究者らが7月28日、そうした自律兵器を禁止するよう求める書簡を発表しました。

文化 その他
(C)GettyImages
  • (C)GettyImages
「ターミネーター」に代表される映画やゲームなどのSF作品群に多く登場するロボットなどの自律兵器。昨今、現実の軍事技術として研究開発が進められている分野でもありますが、AIやロボット研究者らが7月28日、そうした自律兵器を禁止するよう求める書簡を発表しました。

書簡はAIのリスクを考え、その活用方法を研究する非営利団体「Future of Life Institute(FLI)」がアルゼンチンで開催されている「国際人工知能会議(IJCAI)」にて発表したもの。著名な理論物理学者スティーブン・ホーキング氏や情報工学者スチュワート・ラッセル氏など、多数の研究者らによって署名されています。

書簡では、自律兵器が開発された場合の危険性を指摘。もし、自律兵器が開発された場合、それまでの戦争の様相を一変させた「火薬」や「核兵器」に次ぐ、第3の革命が起こり、世界は軍拡の道を進むだろうと警告しています。

その理由について、自律兵器は核兵器と違い高価な原料などを必要とせず、大量生産によってコストは安くなり、明日の「カラシニコフライフル(AK-47)」になるだろうと説明。加えて、危険な独裁者にわたった場合「民族浄化」などの大量虐殺を引き起こす可能性があり、人類のために有益ではないと、その存在を否定しました。

また、ほとんどの化学者や生物学者が「生物化学兵器」の開発に興味が無く、彼ら自身、自分たちの活躍の場を汚してほしくないといった意向も触れられています。さらにはAI研究者も自律兵器を開発することに興味はないと表明。自律兵器が開発されれば、AIに対する市民の反発を招き、今後のAIによる社会的発展も損なわれるだろう、との見解を明らかにしています。

自らゲームルールを学習する人工知能「DQN」など、ゲームとも馴染み深いAI技術。そうした技術がこれからどういった発展を遂げていくのか、そして人類にどのような影響を与えるのか、考え始めても良い頃合なのかもしれません。
《水京》

この記事の感想は?

  • いいね
  • 大好き
  • 驚いた
  • つまらない
  • かなしい
【注目の記事】[PR]

関連ニュース

特集

人気ニュースランキングや特集をお届け…メルマガ会員はこちら