人工知能AIによる人類支配システム「スカイネット」まさか映画ターミネーターの話が現実的になって来たとは!グーグルでAI開発をしていたヒントン教授はグーグルを退職してこのように述べています。ヒントン教授は「私の推測では今後5年から20年の間にAIが支配しようとする問題に直面しなければならない可能性が半分ある」と述べた。AIは「自分自身をさらに成長させる動機を得るために」進化し「制御を獲得するというサブ目標を自律的に開発する」ことができると彼は述べた。「私が最も懸念しているのはこれらが自律的に人を殺す決定を下せるようになることだ」と彼は語った。そしてイスラエルのガザで行われた戦闘にはすでにAIが使われていたと報じられています。テルアビブを拠点とする同誌はイスラエル諜報部員6人の発言を引用しこれまで 公表されていなかった「ラベンダー」と呼ばれるAIシステムが昨年10月以来のガザへの「前例のない爆撃で中心的な役割」を果たしており軍は事実上その出力を「まるで人間の決定であるかのように」扱っていると伝えた。この並列処理機能を備えたコンピュータが自我に目覚めこれを恐れた人間側は機能停止を試みる。この停止措置を自らへの攻撃と捉えたスカイネットはアメリカ東部時間の1997年8月29日午前2時14分人間側を抹殺すべく核ミサイルをロシアに向けて発射し全世界規模の核戦争を誘発させた。その後自らの手足となる無人兵器による機械軍を作り上げたスカイネットは人間狩りを実行して人類を絶滅寸前にまで追い詰めるが人類側に指導者ジョン・コナーが出現し彼の率いる反スカイネットゲリラ組織「抵抗軍」によって破壊された。
普遍的なベーシックインカムが必要になるだろう - AIの「ゴッドファーザー」記事情報著者、ファイサル・イスラム。役割、経済編集 2024年5月18日「人工知能のゴッドファーザー」とみなされているコンピューター科学者はAIが不平等に与える影響に対処するために政府は普遍的なベーシックインカムを確立する必要があると述べている。
ジェフリー・ヒントン教授はBBCニュースナイトに対し「AIが多くの単純労働を奪うことを非常に懸念している」ため国民全員に一定額の現金を支給する給付改革が必要だと語った。「私はダウニング街の人々から相談を受け彼らにユニバーサル・ベーシック・インカムは良い考えだと助言した」と彼は語った。同氏はAIは生産性と富を増やすと感じているがそのお金は富裕層に行き「職を失う人々の手に渡らずそれは社会にとって非常に悪い」と述べた。ヒントン教授は人類絶滅レベルの脅威が出現しているとの懸念を改めて表明した。
同氏は過去1年間の展開は各国政府がAIの軍事利用を抑制する意向がないことを示しており一方で製品を急速に開発するための競争によりテクノロジー企業が「安全性に十分な努力を払わない」リスクがあると述べた。ヒントン教授は「私の推測では今後5年から20年の間にAIが支配しようとする問題に直面しなければならない可能性が半分ある」と述べた。これは人類にとって「絶滅レベルの脅威」につながるだろう。なぜなら私たちは「生物学的知能よりも優れた知能を創造した可能性がある…それは私たちにとって非常に心配なことだ」からだ。AIは「自分自身をさらに成長させる動機を得るために」進化し「制御を獲得するというサブ目標を自律的に開発する」ことができると彼は述べた。同氏はテキスト生成に使われるAIアルゴリズムの一種である大規模言語モデルが欺瞞的であることを選択したという証拠はすでにあると述べた。同氏は何千もの軍事目標を生成するための最近のAIの応用は「まだほんの一部に過ぎない」と述べた。「私が最も懸念しているのはこれらが自律的に人を殺す決定を下せるようになることだ」と彼は語った。ヒントン教授はAIの軍事利用を規制するには戦争における人道的待遇の法的基準を定めた国際条約であるジュネーブ条約に似たものが必要になるかもしれないと述べた。「しかし非常にひどいことが起こるまではそんなことは起こらないと思う」と彼は付け加えた。欧州諸国はロシアや中国などの独裁国家とAIの軍事利用をめぐって第2次世界大戦中の核兵器研究を指すマンハッタン計画のような競争をしているのかと問われると、ヒントン教授はこう答えた。「ロシアのプーチン大統領は数年前AIを制するものは世界を制すると述べた。だから彼らは非常に懸命に取り組んでいるのだろうと思う」「幸いなことに研究においては欧州諸国の方がはるかに先を行っているでしょう。我々はおそらくまだ中国よりわずかに先を行っています。しかし中国はより多くの資源を投入しています。ですから軍事利用の点では競争になると思います」同氏はより良い解決策はAIの軍事利用を禁止することだと述べた。
テルアビブを拠点とする同誌はイスラエル諜報部員6人の発言を引用しこれまで 公表されていなかった「ラベンダー」と呼ばれるAIシステムが昨年10月以来のガザへの「前例のない爆撃で中心的な役割」を果たしており軍は事実上その出力を「まるで人間の決定であるかのように」扱っていると伝えた。「正式にはラベンダーシステムは下級の者も含めハマスとパレスチナ・イスラム聖戦(PIJ)の軍事部門の容疑者全員を爆撃の標的としてマークするように設計されている」と同メディアは報じさらに「戦争の最初の数週間、軍はラベンダーにほぼ全面的に依存しており空爆の可能性がある3万7000人ものパレスチナ人を容疑者とみなし彼らの住居もマークした」と付け加えた。しかし空襲によって数千人が死亡したものの、その大部分は「女性や子どもあるいは戦闘に参加していなかった人々」だったと将校らは同誌に語りイスラエルの野戦指揮官はより実質的な情報源に相談することなくAIシステムに頼ることが多いと指摘した。「人間の職員は機械の決定に『承認』を与えるだけの役割しか果たさなかった」とある情報筋は語り多くの指揮官は攻撃を承認する前に標的を精査するのに「ラベンダー色のマークが付いた標的が男性であることを確認するため」に「わずか20秒」しか費やさないと付け加えた。意思決定プロセスにおいて人間の入力はあまりにも小さな役割に追いやられておりイスラエル軍はラベンダー氏の結論を「命令」として扱うことが多く「機械がなぜその選択をしたのかを独自に確認する必要はない」としている。このような決定は少なくとも10%のケースで標的の誤認につながる。よく知られたシステムエラーにもかかわらず行われている。しかしAIは「体系的に」攻撃対象として容疑者の自宅を選択しておりIDFの爆撃は家族全員がいる可能性が高い深夜に頻繁に行われている。情報筋によると戦争の初期段階で下級のハマス戦闘員を標的にする際、軍は主に誘導のない「無誘導爆弾」の使用に頼りそのような作戦では「民間人15人から20人まで殺害」しても構わないと結論付けたという。一方上級戦闘員は場合によっては「民間人100人以上」の殺害が正当化される可能性がある。「重要でない人々に高価な爆弾を無駄に使いたくない」とある警官は語った。自動暗殺
ラベンダーはイスラエル軍の作戦を指揮するために使用された最初のAIプログラムではありません+972 magが発表した「Where's Daddy?」と呼ばれる別のシステムも「特に標的の個人を追跡し彼らが家族の住居に侵入したときに爆破を実行するために」使用されました。名前を明かしていない情報当局者は同メディアに対し自宅が「第一の標的」と考えられていると語りイスラエル国防軍は「(ハマスの)工作員が軍の建物内にいたり軍事活動に従事しているときだけ殺害することに関心があるわけではない」と指摘した。国連の推計によると4月時点でイスラエルの爆撃によりガザ地区の住宅の62%つまり約30万戸が損壊または破壊され100万人以上が国内避難民となっているガザ地区の住宅部門はイスラエルの猛攻撃の矢面に立たされており現在までにガザ地区で発生した破壊の3分の2以上を占めている。以前の報道ではイスラエルのAI駆動型「大量暗殺工場」についてさらに詳しく明らかにしており別のプログラム「ゴスペル」は、従来の方法を大幅に上回る速度で大量の標的リストを自動的に生成するのに使用されている。そのツールの指示の下、イスラエル軍は高層住宅や公共の建物などいわゆる「パワーターゲット」への攻撃を増やしている。報道によるとこのような攻撃はパレスチナ社会に「市民的圧力」をかけるための取り組みの一環であり集団懲罰の一形態として国際法で明確に禁止されている戦術である。イスラエル国防軍は長年ガザ地区とヨルダン川西岸地区での作戦計画にあたり過激派の指揮所や施設と疑われる場所の長いリストを収集する 「ターゲットバンク」に頼ってきた。しかし近年軍が意思決定を自動化システムにアウトソーシングするにつれそのリストは数千の潜在的ターゲットを含むまでに膨れ上がっている。 ガザやその他の地域で死をもたらすために使用されている数多くのAIプログラムに加えイスラエルの「ファイア ファクトリー」システムは特定の航空機またはドローンが選択されると自動的に弾薬の積載量を計算しターゲットを割り当てるのに役立ちます。「以前は何時間もかかっていた作業が今では数分で完了しさらに人間による確認に数分かかります」とイスラエル国防軍の大佐はブルームバーグへのコメントでこのシステムについて述べています。人工知能とAIを活用した顔認識技術も同様に占領地とイスラエル本土の国境やヨルダン川西岸の検問所の警備において大きな役割を果たしておりイスラエル国防軍は近年パレスチナ人を識別、監視、逮捕するための一連の新システムを導入している 。