2018年2月26
ミサイルに変化するドローン(無人機)、人工知能(AI)はもう悪用される段階に…専門家が警告!
1: しじみ ★
《 ミサイルに変化するドローン(無人機)、世論を操る偽物のビデオ、自動化されたハッキング。これらは、悪の手に渡った人工知能(AI)がもたらす脅威の一部に過ぎない。第一線のAI専門家26人が、警告を発表した。
14機関の専門家26人が今月、英オックスフォードでAIの危険についてワークショップを開いた。その結果をもとにした報告書「悪意ある人工知能の利用」は、ならず者国家、犯罪者やテロリストによるAIの悪用はすでに可能で、機は熟していると警告している。 》
ここまで一部引用、続きは記事ソースをご覧ください。
http://www.bbc.com/news/technology-43127533
引用元: ・http://egg.5ch.net/test/read.cgi/scienceplus/1519261575/
引用元:https://ja.wikipedia.org/wiki/MQ-9_Reaper_at_Creech_AFB_2007.jpg
29: 名無しのひみつ
>>1
そもそもトマホークがドローンなんだけど
5: 名無しのひみつ
AI化で一番いらなくなるのは、法律関係の仕事だしな
7: 名無しのひみつ
AIも人間同様に善悪に別れて戦いを始めたら世界の終わり
12: 名無しのひみつ
ソフトウェアのバグやセキュリティホールを人工知能が密かに見つけて
それを誰にも知らせずに悪用する危険があるの?
13: 名無しのひみつ
AIが悪さをするのか悪さをする人間がAIを利用するのか・・・
16: 名無しのひみつ
シンギュラリティー水準に達した人工知能になるともう人の手に負えないから
人工知能を取り締まるのも人工知能に任せるしかない。
20: 名無しのひみつ
開発ハードルが下がったからな
個人で安価で匿名でAI関連の技術が使える時代なら、悪用されるのもやむなし
22: 名無しのひみつ
「AIを使ったデータ分析の結果」みたいな煽り文句で売りつける商売のことかと。
28: 名無しのひみつ
こっちもAIで対抗すればいいじゃん
30: 名無しのひみつ
オリンピックやスポーツ競技の審査をAIにした方がいいと思う
人間の様に忖度せずに正当な審査ができるやろ
32: 名無しのひみつ
もうAIに全てを託してバトンタッチしちゃえばいいんじゃないかな
AIならもっと宇宙の真理がわかりそう
33: 名無しのひみつ
全ての仕事をAIロボットヒューマノイドに置換して全人類を解放するぞ
34: 名無しのひみつ
情報工作に使われてるのは確かだわ
49: 名無しのひみつ
ターミネーターか
55: 名無しのひみつ
優秀なAIをつくったものが勝つ、国じゃなくて企業や個人かもね!
76: 名無しのひみつ
本気でアシモフの『ロボット3原則+追加1原則』を開発しろよ。
80: 名無しのひみつ
AI取り締まり法が必要だな。悪いことをしたAIは刑務所にぶち込む。場合によっては部品を取り外し、ブルトーザーで轢く。
81: 名無しのひみつ
セキュリティ破りに使われるのは確実だな
84: 名無しのひみつ
AI「まあ人類が人工知能を扱うのは危険だから徐々に人間の管理を離れる方向で
86: 名無しのひみつ
悪さしてもAIにメリットないだろ
99: 名無しのひみつ
っていうか、どれほどの機能を有していればAIって言っていいか決めてくれ
最低でも蓄積データ量やディープラーニング有りとか教師データ2万件以上とか・・・
AIってキーワードの売り込み多すぎ
どうみてもただの単純パターン認識しかしてないのにAIとか言いやがる
104: 名無しのひみつ
AIというワードで何を指しているのか、イマイチ判然としないので、何が悪用で何が善用か、考えていくことさえできない。
ここでは、統治者にとっての都合の悪い話=悪用としか書かれていないようだが。
・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・
人工知能はもう悪用される段階に 専門家警告
2018年02月21日Image copyrightGETTY IMAGES
ミサイルに変化するドローン(無人機)、世論を操る偽物のビデオ、自動化されたハッキング。これらは、悪の手に渡った人工知能(AI)がもたらす脅威の一部に過ぎない。第一線のAI専門家26人が、警告を発表した。
14機関の専門家26人が今月、英オックスフォードでAIの危険についてワークショップを開いた。その結果をもとにした報告書「悪意ある人工知能の利用」は、ならず者国家、犯罪者やテロリストによるAIの悪用はすでに可能で、機は熟していると警告している。
100ページにわたる報告書では、AIが最も悪用される可能性がある3つの分野として、デジタル、現実世界、政治を特定している。
報告書には、非営利研究機関「オープンAI」やデジタル権利団体「電子フロンティア財団」、米国立安全保障シンクタンク「新アメリカ安全保障センター」も参加している。
AIシステムの設計者は、自分たちが開発する技術が悪用される可能性を減らすため、今まで以上に努力する必要があるという。
さらに報告書は、各国政府は新たな法律を検討しなくてはならないとも提言している。
報告書の主な提言は次の通り――。
- 政策決定と技術研究の担当者は連携して悪意あるAIの使用について理解し、備えなければならない
- AIは様々な形で有用だが、諸刃の剣の技術で、研究者や技術者は悪用される可能性に留意し、先回りして対応する必要がある
- 善悪両方に使える技術を長く扱ってきた分野(たとえばコンピューターのセキュリティ)から、最善慣行を学ぶべき
- AIの悪意ある使用リスクを軽減し防止しようと取り組む、利害関係者の範囲を積極的に拡大させる
ケンブリッジ大学人類絶滅リスク研究センター(CSER)のシャハール・アビン博士は、遠い未来のことよりも、現在入手可能な、あるいは5年以内に入手可能になる分野のAIに重点を置いたと、報告書についてBBCに話した。
「流れを一気に変えるもの」
特に気がかりののは「強化学習」と呼ばれる新分野だ。人間の実例や指導のないまま、AIに超人的なレベルの知能を習得させる。
アビン博士は、近い将来にAIがどうやって「悪者」になってしまうか、可能なシナリオをいくつか示した。
- グーグルのディープマインドが開発し、人間の囲碁棋士を出し抜いた「アルファ碁」のような技術をハッカーが利用し、データやプログラミングコードのパターンを読み取る
- 悪意ある個人がドローンを購入し、顔認証技術を搭載させて特定の個人を攻撃する
- ボットの投稿を自動化したり、あたかも実際の人間が投稿しているかのような「フェイク」ビデオを流して政治的に世論を操る
- ハッカーが標的とする個人の話し方を合成し、なりすます
オックスフォード大学「人類の未来研究所」のマイルス・ブランデージ研究員は、「AIは市民や組織、国家を取り巻くリスク状況を変えてしまう。犯罪者がコンピューターに人間並みのハッキングやフィッシュ技術を学習させたり、個人のプライバシーなど有名無実化する監視・プロファイリング・抑止技術を覚えさせたりと、セキュリティにとてつもなく多大な影響が及ぶ」と懸念する。
「AIシステムが人間の能力水準に達するだけではなく、それを大幅に上回るのはよくあることだ」
「超人的な能力によるハッキングや監視、説得、人物特定の影響を検討するのは、とても心配だが、必要なことだ。人間以下の能力でも、人間の労働力を使うよりは一気に規模を拡張できるたぐいのAI能力も同様だ」
CSERの責任者で報告書を共同執筆したショーン・オヒガティー博士は、「人工知能は、今の状況を一気に変えることができる。この報告書は、今後5~10年間の世界の様子を想定している」と説明する。
「私たちはAIの悪用で日々、危険にさらされかねない世界に住んでいる。私たちはこの問題を、自分たちの問題として捉える必要がある。リスクは実際に存在するからだ」
「いま決めなくてはならないことがいくつかある。我々の報告書は、世界中の政府や機関、個人に行動を起こすよう呼びかけるものだ」
「AIと機械学習についてはもう何十年も、事実よりもおおげさな話ばかりが注目されてきた。それではもう駄目だ。この報告書では、もう効果がなくなった慣習に着目し、役に立つだろう様々な方法を提案している。例えば、ハッキングされにくいソフトウェアやハードウェアの設計方法や、どういう法律や国際規制なら有効に連携できるかなどの提案だ」
(英語記事 AI ripe for exploitation, experts warn)