アップルがiPhone内の児童ポルノ画像を検出へ、米国で開始
8/6Forbes Japanの記事によると
アップルは、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入する。
アップルは人々がiCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという。
ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという。
違法な写真であると判断された場合、法執行機関にアラートが出される。
ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。
米国司法省は昨年、テクノロジー企業やソーシャルメディア企業に対し、子どもの性的搾取や虐待への対策を強化することを目的とした「自主的原則」を発表し、違法なコンテンツを発見した場合、ただちに当局に報告するよう呼びかけた。
マイクロソフトは、その後、企業がインターネット上の児童の性的虐待画像を特定するためのphotoDNAを作成した。
フェイスブックとグーグルも、画像の内容を確認しフラグを立てるシステムをすでに導入している。
ジョン・ホプキンス大学のセキュリティ研究者であるマシュー・グリーンは、アップルが個人のiPhoneをスキャンして「禁止されたコンテンツ」を探すシステムを構築することは、「ダムを壊す」ことになり、米国政府がすべての人々の端末を検閲することにつながりかねないと指摘した。
グリーンはさらに、AP通信に対し、アップルが他の国の政府からの圧力を受けて、別の情報をスキャンするようになるのではないかという懸念を示している。
児童保護団体「National Council for Missing and Exploited Children」によると
フェイスブックが2020年に法執行機関に報告した児童の性的虐待画像は、2000万件に達していた。この数字には、フェイスブックとインスタグラム上の画像が含まれており、2019年の1600万件から上昇していた。
素晴らしい!!
テクノロジーとは世の中が良くなるためや、人々の人権を守る為に使われて欲しい!
ネットだから何してもバレない…
自分の携帯やパソコンの中だけだからバレない…
という人達が溢れかえってる今だからこそ、テクノロジーを使って、防御したり摘発したりしていける事は、とても大きな成果になる。
人を傷つけたり、迷惑をかけるだけでなく、昨日の記事でも紹介しましたが、長きに渡り自分だけが得をし続けようとする欲深い人間は
きちんと処罰を受けるべきだし、その罪の重さを知って欲しい。
みんなもやってるから…
という言い訳が出来ないくらいに、どんどん摘発される世の中になる事を強く望みます。