全原発廃炉計画も持たず、フクシマ・汚染水問題等も、

ジャニーズ問題 ビジネスと人権も 

国連人権理事会の水準からかけ離れている日本政府と日本企業。

 

 国際公約である日本国憲法第9条改悪に専念し「改正」だと、

国民と国際社会を偽り欺き、

法の支配も参政権も確立していず言論・表現の自由なき立派な」弾圧国家日本❕❕❕❕❕❕❕

 

 


 

欧州人権条約と個人通報制度と憲法裁判所が機能しているEUで成立した異次元の厳格な

「AIの規制法」

 

必読:『EU一般データ保護規則』

宮下紘著 勁草書房 本体4000円

 

ー・ー・ー・ー・ー・ー・ー・ー・ー・ー

 EU NHK

EUでAIの規制法成立 日本企業でも安全性確保へ対応強化

EU=ヨーロッパ連合で包括的にAIを規制する法律が先週、成立しました。日本企業の間でも、安全性や信頼性の確保に向けた対応の強化が進められています。

EUでは5月21日、生成AIなどの基盤モデルの開発やAIを活用したサービスの提供を手がける幅広い企業などを対象に、包括的にAIを規制する法律が成立しました。

2026年に規制が本格的に適用される見通しのこのAI法は、リスクに応じてAIを分類し、利用の禁止や監視などのリスク管理、それにAI製と明示するなど分類ごとに規制を定めています。

一方、日本政府は、EUのAI法が成立した翌日22日に開かれた「AI戦略会議」で、国内でも新たな法規制を導入するかどうか、検討を始めることを確認しました。

生成AIの急速な普及でそのリスクに対する懸念が高まるなか、EUに端を発した規制強化の流れは、日本企業にも大きな影響を与えることになります。

日本企業は

富士通は、すでにEUがデータ保護などの分野で規制を強化したことを受けて、2019年には外部の専門家による委員会を設置し、自社のAIの安全性を客観的に評価する体制を整備しました。

さらに、2021年にEUがAI法の法案を発表したことを受けて、専門の対策チームを設置しました。

また、2023年にはヨーロッパやアメリカなど地域ごとにAI責任者を配置するなど対応の強化を進めています。

 

NECは、2018年に人権やプライバシーの観点からAIビジネスの戦略を立てる専門組織をつくりました。

EUのAI法の成立を受けて、リスク管理の強化を進める方針です。

AIの規制をめぐっては、開発や普及の強化と安全性や信頼性の確保をどのように両立していくかが大きな課題となるなか、法律による規制と企業の自主的な規制のどちらをより重視するのかEUとアメリカ、それに日本での動きに差も出ています。

一方で、AIビジネスの国際競争は激しさを増していて、日本企業は各国の規制に応じたより精緻な対応が迫られています。

専門家「リスク管理の体制構築が求められている」

野村総合研究所の小林慎太郎グループマネージャーは、「EUの規制は開発者だけでなく実際にAIを実装してサービスとして提供する事業者も対象になる。サプライチェーン全体で対処していかなければならず、組織横断的にリスク管理の体制を構築していくことが日本企業には求められている」と話しています。

そのうえで、リスクの評価の判断を企業側に求めているEUのAI法の特徴を踏まえ、「各社が自身でAIのリスクを評価し、それを特定してどこまで軽減すればよいかを自社で考えていかなければならないところが大変難しく、日本企業にとってはチャレンジになる」と述べ、社内でリスクの評価を行う体制を整えながら、ビジネスとしての国際競争力を高めていく難しさを指摘しました。