AIに人類が管理される対象になる未来!開発者が警告。映画「ターミネーター」スカイネットそのもの! | 心と体を健康にするダイエット法

心と体を健康にするダイエット法

新型コロナ時代に免疫力を上げて健康に生きてゆきたい。そんな中高年のダイエットは健康法と美容法とアンチエイジングを兼ねた方法が必須です。過食と体調不良を改善してウイズコロナ時代に楽しく続けることのできるダイエット法を提案しています。

いつもありがとうございます。
ハッピーダイエットの船田です。

人工知能AIによる人類支配システム「スカイネット」
まさか映画ターミネーターの話が現実的になって来たとは!

グーグルでAI開発をしていたヒントン教授は、グーグルを退職して、このように述べています。

ヒントン教授は「私の推測では、今後5年から20年の間に、AIが支配しようとする問題に直面しなければならない可能性が半分ある」と述べた。

 

AIは「自分自身をさらに成長させる動機を得るために」進化し、「制御を獲得するというサブ目標を自律的に開発する」ことができると彼は述べた。


「私が最も懸念しているのは、これらが自律的に人を殺す決定を下せるようになることだ」と彼は語った。

そしてイスラエルのガザで行われた戦闘には、すでにAIが使われていたと報じられています。

テルアビブを拠点とする同誌は、イスラエル諜報部員6人の発言を引用し、これまで 公表されていなかった「ラベンダー」と呼ばれるAIシステムが昨年10月以来のガザへの「前例のない爆撃で中心的な役割」を果たしており、軍は事実上その出力を「まるで人間の決定であるかのように」扱っていると伝えた。

これは、ターミネーターの話も現実味を帯びて来た。

以下、シェアしました。
↓↓↓
ウィキペディア「スカイネット」より

…この並列処理機能を備えたコンピュータが自我に目覚め、これを恐れた人間側は機能停止を試みる。

この停止措置を自らへの攻撃と捉えたスカイネットは、アメリカ東部時間の1997年8月29日午前2時14分、人間側を抹殺すべく核ミサイルをロシアに向けて発射し、全世界規模の核戦争を誘発させた。

その後、自らの手足となる無人兵器による機械軍を作り上げたスカイネットは人間狩りを実行して人類を絶滅寸前にまで追い詰めるが、人類側に指導者ジョン・コナーが出現し、彼の率いる反スカイネットゲリラ組織「抵抗軍」によって破壊された。
 

 

 

 

 



普遍的なベーシックインカムが必要になるだろう - AIの「ゴッドファーザー」

記事情報
著者、ファイサル・イスラム
役割、経済編集 2024年5月18日


「人工知能のゴッドファーザー」とみなされているコンピューター科学者は、AIが不平等に与える影響に対処するために、政府は普遍的なベーシックインカムを確立する必要があると述べている。

ジェフリー・ヒントン教授はBBCニュースナイトに対し、「AIが多くの単純労働を奪うことを非常に懸念している」ため、国民全員に一定額の現金を支給する給付改革が必要だと語った。

「私はダウニング街の人々から相談を受け、彼らにユニバーサル・ベーシック・インカムは良い考えだと助言した」と彼は語った。

同氏は、AIは生産性と富を増やすと感じているが、そのお金は富裕層に行き、「職を失う人々の手に渡らず、それは社会にとって非常に悪い」と述べた。

ヒントン教授は、人類絶滅レベルの脅威が出現しているとの懸念を改めて表明した。

同氏は、過去1年間の展開は各国政府がAIの軍事利用を抑制する意向がないことを示しており、一方で製品を急速に開発するための競争により、テクノロジー企業が「安全性に十分な努力を払わない」リスクがあると述べた。

ヒントン教授は「私の推測では、今後5年から20年の間に、AIが支配しようとする問題に直面しなければならない可能性が半分ある」と述べた。

これは人類にとって「絶滅レベルの脅威」につながるだろう。なぜなら、私たちは「生物学的知能よりも優れた知能を創造した可能性がある…それは私たちにとって非常に心配なことだ」からだ。

AIは「自分自身をさらに成長させる動機を得るために」進化し、「制御を獲得するというサブ目標を自律的に開発する」ことができると彼は述べた。

同氏は、テキスト生成に使われるAIアルゴリズムの一種である大規模言語モデルが欺瞞的であることを選択したという証拠はすでにあると述べた。

同氏は、何千もの軍事目標を生成するための最近のAIの応用は「まだほんの一部に過ぎない」と述べた。

「私が最も懸念しているのは、これらが自律的に人を殺す決定を下せるようになることだ」と彼は語った。

ヒントン教授は、AIの軍事利用を規制するには、戦争における人道的待遇の法的基準を定めた国際条約であるジュネーブ条約に似たものが必要になるかもしれないと述べた。

「しかし、非常にひどいことが起こるまでは、そんなことは起こらないと思う」と彼は付け加えた。

西側諸国は、ロシアや中国などの独裁国家と、AIの軍事利用をめぐって、第2次世界大戦中の核兵器研究を指すマンハッタン計画のような競争をしているのかと問われると、ヒントン教授はこう答えた。「ロシアのプーチン大統領は数年前、AIを制するものは世界を制すると述べた。だから、彼らは非常に懸命に取り組んでいるのだろうと思う」

「幸いなことに、研究においては西側諸国の方がはるかに先を行っているでしょう。我々はおそらくまだ中国よりわずかに先を行っています。しかし、中国はより多くの資源を投入しています。ですから軍事利用の点では競争になると思います」。

同氏は、より良い解決策はAIの軍事利用を禁止することだと述べた。





テルアビブを拠点とする同誌は、イスラエル諜報部員6人の発言を引用し、これまで 公表されていなかった「ラベンダー」と呼ばれるAIシステムが昨年10月以来のガザへの「前例のない爆撃で中心的な役割」を果たしており、軍は事実上その出力を「まるで人間の決定であるかのように」扱っていると伝えた。

 「正式には、ラベンダーシステムは、下級の者も含め、ハマスとパレスチナ・イスラム聖戦(PIJ)の軍事部門の容疑者全員を爆撃の標的としてマークするように設計されている」と同メディアは報じ、さらに「戦争の最初の数週間、軍はラベンダーにほぼ全面的に依存しており、空爆の可能性がある3万7000人ものパレスチナ人を容疑者とみなし、彼らの住居もマークした」と付け加えた。


しかし、空襲によって数千人が死亡したものの、その大部分は「女性や子ども、あるいは戦闘に参加していなかった人々」だったと将校らは同誌に語り、イスラエルの野戦指揮官はより実質的な情報源に相談することなくAIシステムに頼ることが多いと指摘した。

「人間の職員は、機械の決定に『承認』を与えるだけの役割しか果たさなかった」とある情報筋は語り、多くの指揮官は攻撃を承認する前に標的を精査するのに「ラベンダー色のマークが付いた標的が男性であることを確認するため」に「わずか20秒」しか費やさないと付け加えた。

意思決定プロセスにおいて人間の入力はあまりにも小さな役割に追いやられており、イスラエル軍はラベンダー氏の結論を「命令」として扱うことが多く、「機械がなぜその選択をしたのかを独自に確認する必要はない」としている。

このような決定は、少なくとも10%のケースで標的の誤認につながる、よく知られたシステムエラーにもかかわらず行われている。しかし、AIは「体系的に」攻撃対象として容疑者の自宅を選択しており、IDFの爆撃は家族全員がいる可能性が高い深夜に頻繁に行われている。

情報筋によると、戦争の初期段階で下級のハマス戦闘員を標的にする際、軍は主に誘導のない「無誘導爆弾」の使用に頼り、そのような作戦では「民間人15人から20人まで殺害」しても構わないと結論付けたという。一方、上級戦闘員の場合、場合によっては「民間人100人以上」の殺害が正当化される可能性がある。

「重要でない人々に高価な爆弾を無駄に使いたくない」とある警官は語った。

自動暗殺
ラベンダーは、イスラエル軍の作戦を指揮するために使用された最初のAIプログラムではありません。+972 magが発表した「Where's Daddy?」と呼ばれる別のシステムも、「特に標的の個人を追跡し、彼らが家族の住居に侵入したときに爆破を実行するために」使用されました。

名前を明かしていない情報当局者は同メディアに対し、自宅が「第一の標的」と考えられていると語り、イスラエル国防軍は「(ハマスの)工作員が軍の建物内にいたり軍事活動に従事しているときだけ殺害することに関心があるわけではない」と指摘した。


国連の推計によると、4月時点でイスラエルの爆撃によりガザ地区の住宅の62%、つまり約30万戸が損壊または破壊され、100万人以上が国内避難民となっている。ガザ地区の住宅部門はイスラエルの猛攻撃の矢面に立たされており、現在までにガザ地区で発生した破壊の3分の2以上を占めている。

 以前の報道では、イスラエルのAI駆動型「大量暗殺工場」についてさらに詳しく明らかにしており、別のプログラム「ゴスペル」は、従来の方法を大幅に上回る速度で大量の標的リストを自動的に生成するのに使用されている。

そのツールの指示の下、イスラエル軍は高層住宅や公共の建物など、いわゆる「パワーターゲット」への攻撃を増やしている。

報道によると、このような攻撃はパレスチナ社会に「市民的圧力」をかけるための取り組みの一環であり、集団懲罰の一形態として国際法で明確に禁止されている戦術である。

 イスラエル国防軍は長年、ガザ地区とヨルダン川西岸地区での作戦計画にあたり、過激派の指揮所や施設と疑われる場所の長いリストを収集する 「ターゲットバンク」に頼ってきた。

しかし近年、軍が意思決定を自動化システム に アウトソーシングするにつれ、そのリストは数千の潜在的ターゲットを含むまでに膨れ上がっている。 

 ガザやその他の地域で死をもたらすために使用されている数多くの AI プログラムに加え、イスラエルの「ファイア ファクトリー」システムは、特定の航空機またはドローンが選択されると、自動的に弾薬の積載量を計算し、ターゲットを割り当てるのに役立ちます。

「以前は何時間もかかっていた作業が、今では数分で完了し、さらに人間による確認に数分かかります」と、イスラエル国防軍の大佐はブルームバーグへのコメントでこのシステムについて述べています。

 人工知能とAIを活用した顔認識技術も同様に、 占領地とイスラエル本土の国境やヨルダン川西岸の検問所の警備において大きな役割を果たしており、イスラエル国防軍 は近年、パレスチナ人を識別、監視、逮捕するため の 一連の新システムを導入している 。

この記事はもともとAntiwar.comに掲載されたもので、許可を得て再掲載されています。


船田の関連記事

今回の記事のヒルトン教授の別の記事