日経ITProの記事によると、総務省主導によるAI開発指針に対してAIベンチャーの雄であるプリファードネットワークスが反旗を翻し委員会から降りてしまったそうです。プリファードの話を要約すると以下のようなかんじです。
- 汎用人工知能と分野特化型人工知能を混同している
- AI開発者とそれを利用するユーザがいるが、開発者の責任に偏重している
- PL法をAIにも当てはめ、製品と同等の品質保証を要求される
- 第三者認証による認定が求められている
- これでは日本のAI技術者が萎縮し欧米に勝てない
というものです。省庁の感覚からすると規制する方向性で縛りを入れようということでしょう。
私はどっちの見解にも一理はあるように感じています。AIは現在の機能安全の世界では、安全機能に用いてはならないことになっています。これはロジック、アルゴリズムの健全性を証明することがAIのようなノンパラメトリックな近似の仕組みでは論証できないからでしょう。
AIが出した結論を単なる参考意見、アドバイスとして扱うのならいいが、人の生死に関わるところに使うには危なすぎる ということがあります。
他方、確かに今の段階であれこれと縛りを入れると、そんな面倒なことならAIはやめるか ということになりかねない、これも理解できないわけではない。今後自分の活動にも関係してきそうな内容でもあり、よく注視してゆきたいと思っています。
