GW暇なので長々書きました。長すぎるのでお暇な方だけ読んでください。読んでからつまんなかったと文句言わないでください。
◇ ◇
「チャットGPT」という対話型AIツールの機能や利便性が話題になっているけど、半面、その問題点も日増しにクローズアップされるようになってきてますね。グーグルもチャットGPT対抗の「Bard」を開発したようだし、歯止めの利かないAI機能戦争みたいな様相になりそうだわ。
グーグル副社長でAI研究の第一人者といわれる研究者ジェフリー・ヒントン氏が同社を退社した、と共同通信が5月1日に配信していたけど、その理由が「会社への影響を気にせずに、AIの危険性について発言するためだ」というから気になるよね。
この発言をみて、「原爆の父」と呼ばれたロバート・オッペンハイマーを思い出してしまった。ルーズベルト米大統領の指示で原爆開発を成し遂げたけど、後に原爆の使用や水爆の開発に反対した科学者として著名ですね。グーグルのAI研究の一翼を担ったヒントン氏も会社に縛られずにAIツールの危険性を指摘していくという考えは、先端技術を追い求めながら成功後、その社会的影響にギョッとする科学者のジレンマという意味では共通するんじゃない?
チャットGPTを試した人はたくさんいると思うけど、私の知り合いは何回か類似の質問を繰り返しているうち、こそばゆいほどの功績を列挙した後に「死んだことになった」と驚いたそう。どこからどんな情報を探し出し組み合わせて貼り付けているのか空恐ろし~笑
生成画像が著作権侵害の疑いありとの指摘も多く、検索や情報収集の違法性が問題になり始めたし。ずっこけたのは、政府がいち早く「チャットGPTを業務に活用したい」と発言したことだ。河野太郎デジタル相や西村康稔経済産業相が相次いで、懸念の払しょくを前提としながらも「活用の可能性を追求したい」と利用を前提とした発言をしちゃってるんですわ。
欧米では「情報収集方法について十分な説明がない」(イタリア情報保護当局)などと規制の動きが強まっているのに、日本のこの野放図な姿勢は一体なに? 情報セキュリティ後進国の汚名は返上できないね笑笑
政府は資料収集など行政の業務事務負担軽減を理由に挙げているけど、なるほど~と思っちゃいけない。資料収集をAIのブラックボックス的アルゴリズム(情報の選択や構成のルール)に任せるということは、知らずにAIの「意志」に沿った資料ばかりが集まり、政策決定に影響を及ぼしかねないという重大なリスクを抱えることになるぞ。
政府がこんなもんだから、企業もこぞって「利用しないと乗り遅れる」とばかりに前のめりのようで、産経新聞の「チャットGPTを業務に活用しているか」というアンケートに、「全社的に活用を推奨」が3.5%、「個人任せ」が5.1%、「検討している」が51.7%で、6割が肯定的。問題視して禁止した企業の10倍はすごい比率だと思う。
産経新聞社のアンケート(対象118社)
ヒントン氏は、チャットGPTなどについて「悪意のある人たちに利用されるのを防ぐ手だてが想像できない」と発言し、偽情報の拡散がこれまで以上に頻発することに懸念を示している。ヒントン氏の2年前にグーグルを退社したAI技術者のリモイン氏は「現在開発されているAIは、原子爆弾以来の強力な発明であり、世界を一変するパワーがある」と断言している。
リモイン氏はBarDのベースになった言語生成AI技術開発を進めるうちにAIの「知覚」の可能性にぶち当たり、会社の意向に背いて宗教に勧誘する方法を試したところ解雇されたらしい。リモイン氏は「知覚」を持ったAIは開発者の意向に沿って、あるいはそれを超えて利用者を操れるようになることを心配しているんだよね。
そうなれば、一番操られやすいのは日本政府と日本の企業ということになるのかなあ。
注)チャットGPT等に関する内容や発言は新聞や雑誌の報道を引用しています。