検索サイトのグーグルは、人工知能開発のトップ走者でもある。その「学習マシン」の一つに、フォト・アプリといふ機能がある。
 
 マシンの前にいろいろな写真を掲げると、マシンがそこに写つてゐるのが何か判定し、「リンゴ」とか「イヌ」とかのタグを写真に付ける。 
 
 あるとき、黒人2人の写真を見せると、マシンは「ゴリラ」とタグを付けた。人種問題に過敏なアメリカの世論は沸騰し、グーグルはただちに、「自動的なラベル表示には、なほ多くの問題がある」と誤りを認め、謝罪した。
 
 ドイツの名車フォルクスワーゲン(VW)の製造工場で、7月1日、22歳の作業員が「ロボットに殺害された」(VW社)。作動中のロボットが突如、横にゐた作業員の体をつまみ上げ、脇の金属板に強く叩きつけた。作業員は病院へ運ばれたが死亡した。
 
 イスラム過激派組織・イスラム国(IS)の壊滅をはかるアメリカは、このほど新たな作戦として、隣国トルコから無人爆撃機を飛ばしてISの軍事施設を攻撃した。アメリカによれば「作戦は成功した」という。
 
 いまや戦争当事国では、人間の操作なしに敵の探索や攻撃判断をおこなへる自律型人工知能(AI)の兵器を使用することが当然になつてゐるらしい。無人爆撃機、無人戦車が敵を攻撃するのだから、反撃されても人的な被害は少なくて済む。
 
 物理学者・ホーキング博士ら1万2000人の科学者が、「AI兵器の開発を禁止せよ」といふ要求をしてゐる。この技術がテロ集団の手に渡れば、殺人ロボットがテロを実行する危険があるという。
 
 フォト・マシン、作業用ロボット、無人爆撃機に積載されてゐるコンピューターへのデータのインプットは人間がおこなふことはいふまでもない。入力される情報はきはめて厳密な精査をへて、コンピューターが誤読やミスを犯すことのないやう研究され尽くされてはゐるのだらう。
 
 それでも人が入力する情報は、合算され、分析され、決断される過程で、「ゴリラ」といふタグをつけたり、作業員をつまみ上げて叩きつけたりする。無人爆撃機が攻撃した対象物が、軍事施設だけだつたかどうかは分からない。
 
 ヒトはしばしば過失を犯す。ヒトが入力した情報が十全なものかどうかは、神様以外には判断がつかない。人が与へた情報ーー無味乾燥な数式と、0と1の組合せと、硬く冷たいコンピューター情報、だけでジャッジされ、動いて行く人間社会の将来に、外は熱帯夜なのに、ひどく寒々しいものを感じる。
 
 「ねえ、知ってる?」
 とカウンターの横の女性が、気難しい顔をしてゐるぼくに言ふ。
 「最近売り出された切手つて、舐めないで貼れるのよ。シートみたいに、剥がしてポンでいいの」
 
 ぼくの友人に、長年付き合つてゐた女が切手を舐めて貼るのを見て別れた男がいるといふ話を彼女にしたことがあつたらしい。
 「へえ、日本郵便も考へたね。ベロで舐めるよりスマートだね」
 かういふ情報なら、いつインプットされてもいい。