東京新聞のニュースサイトです。ナビゲーションリンクをとばして、ページの本文へ移動します。

トップ > 社説・コラム > 社説一覧 > 記事

ここから本文

【社説】

人工知能搭載 ロボットにも9条あり

 人工知能(AI)を殺人ロボットに搭載したり、AIにドローンなどの兵器を操作させてはならない。技術が確立する前に禁止すべきだ。ロボット先進国の日本が先頭に立って進める必要がある。

 近い将来、AIが自ら敵と判断して殺傷する自律型致死性兵器、通称殺人ロボットが誕生すると考えられている。大量の情報を瞬時に判断し、同時に複数の武器を使うこともできる。感情がなく、疲れも知らない。限りなく殺し続ける大量殺りく兵器である。

 ロボットの専門家やIT企業の経営者らが規制するように働き掛けたこともあり、先週、初めての国連公式専門家会議がジュネーブで開かれた。米ロが消極的な姿勢で、結論は出なかったが、来年以降も議論を続ける。

 現在のAIの能力では、戦場のような複雑な状況下では人の関与を必要とするが、殺人ロボットが実現すれば、火薬や原爆のように戦争の形を変えるとされる。米国は軍事的優位を確保できると考え、熱心に開発を進めている。

 人類は一度、手にした技術を手放さない。殺人ロボットも開発されれば、放棄することは困難だ。自国兵士の生命を危険にさらすことがないので、戦争に踏み切る敷居が低くなる可能性もある。

 残念なことに、日本の産業界は反応が鈍い。AIやロボットは軍事と民生の両方に使えるデュアルユースの技術である。しかも、軍事研究よりも民生用の応用研究の方が進む事態も考えられる。規制の内容によっては、日本の産業界にとって打撃になる。

 日本は積極的に関わるべきである。一つは被爆国として、新たな大量殺りく兵器に反対する義務がある。もう一つは、AIを組み込んだ民生用ロボットは、日本が世界をリードできる可能性が高い分野だからだ。

 多くの国の賛同を得やすいのは、軍事用は開発も生産も禁止、民生用は情報公開を義務づけて推進することである。早期のルール作りが国益につながる。そのルールには、AIが進歩したら倫理を学ぶことを条件に加えたい。

 日本の人工知能学会は倫理指針第一条に「人工知能学会員は、人類の平和、安全、福祉、公共の利益に貢献し…」とし、九条で「人工知能も倫理指針を順守できなければならない」と定めている。鉄腕アトムを生んだ国らしいではないか。開発すべきは殺人ロボットではなく、倫理的なロボットだ。

 

この記事を印刷する

東京新聞の購読はこちら 【1週間ためしよみ】 【電子版】 【電子版学割】

PR情報