データサイエンスソリューションをめぐる問題や倫理的ジレンマは、人工知能の発展とともに表面化し始めています。 人間は意思決定のプロセスから自分たちを排除しているため、これらのアルゴリズムが偏ったものでなく、差別的なものでないことを確認したいのです。 人工知能は常に監視されなければならない。 予測分析に基づくデジタルシステムであるため、大量のデータを扱うことができる人工知能に、このような偏りが生じる可能性があるとは言い切れません。 問題はもっと前に、システムに投入される教師なしデータから始まっているのです。

歴史の中で、人間は偏見を持ち、差別されてきました。 私たちの行動は、すぐには変わらないようです。 人間と違って、システムやアルゴリズムはこの問題とは無縁のようです機器人流程自動化使用案例

人工知能の偏りとは?

データ関連では、データの取得方法が利益団体を正しく表していないため、人工知能の偏りが発生します。 これは、特定の人種、信条、肌の色、性別を持つ人々が、データサンプルに十分に反映されていないことを示唆しています。 その結果、システムが差別的な結論を出す可能性があります。 データサイエンスのアドバイスとその重要性もこの問題の一因です。

AIの偏りとは、作成されたAIシステムが特定の集団に意図的に偏っているということではありません。 個人がコマンドではなく、お手本で意思表示できるようにするのがAIの目的です。 つまり、AIに偏りがあるとすれば、それはデータに偏りがあるからに他ならないのです AIの意思決定は、人間の欠点をカバーできないという意味で、理想化されたプロセスです。 また、ガイド付き学習を取り入れることによるメリットもあります。

なぜ、このようなことが起こったのでしょうか?

アルゴリズムで良い結論を出すのに有利なのは、データに先入観のある人間の選択が内包されている可能性があるため、AIのバイアスの問題が発生するのだそうです。 現実の世界でも、AIのバイアスがかかっている例はいくつもあります。 レースと有名なドラァグクイーンは、Googleのヘイトスピーチ検出システムによって差別されたのです。 アマゾンの人事アルゴリズム アマゾンの人事アルゴリズムでは、主に男性社員のデータを提供しているため、女性候補者がアマゾンの仕事に適任である可能性が高くなります。

MITのデータ科学者によると、顔認識アルゴリズムは、少数民族、特に少数民族の女性の顔を分析する際に、より高いエラー率を示すとのことです。 これは、アルゴリズムが主に白人男性の顔を提供しているためと思われます。

アマゾンのアルゴリズムは、米国の1億1200万人のプライムユーザーと、頻繁にサイトを訪れる数千万人のユーザーに基づいており、彼の商品に関する追加の個人データを使ってよく訓練されているので、同社は消費者の購買行動を予測することができるのです。 Googleの広告ビジネスは、毎日何十億ものインターネット検索を行い、25億台のAndroidスマートフォンからデータを提供する予測アルゴリズムに基づくものです。 これらのインターネット・ジャイアントは、人工知能の分野で巨大なデータ独占を築き、ほぼ無敵の強さを誇っています。

合成データはAIのバイアスにどう対応できるのか阻截來電滋擾

肌の色、性別、宗教、性的指向にかかわらず、理想的な社会では、誰も偏見を持つことはないでしょう。 しかし、現実の世界には存在するのです。 地域によっては、仕事や教育を受けることが困難なため、多くの統計で過小評価されています。 AIシステムの目的によっては、これらの人々はスキルが低く、これらのデータセットに含まれる可能性が低く、良いスコアを受け取るのに適していないという誤った推論を導く可能性があります。

一方で、AIデータはAIにとって大きな一歩となるかもしれません。 以下は、考慮すべきコンセプトです:

現実のデータを見て、どこにバイアスがかかっているのかを確認する。 次に、現実のデータと観察可能なバイアスを用いて、データを合成する。 理想的な仮想データ生成装置を作りたいのであれば、逸脱したデータを公正とみなされるデータに変換しようとすることができる公正さの定義を含める必要があります。

AIによって生成されたデータは、公正なデータセットを形成するためのバリエーションがほとんどない、あるいは十分でないデータセットのギャップを埋めることができるかもしれません。 サンプルサイズが大きくても、他の人と比べて排除されたり、過小評価されたりする人がいます。 この問題は、合成データで対応する必要があります。

データマイニングは、公平なデータを生成するよりもコストがかかる場合があります。 実際のデータ収集には、測定やインタビュー、大量のサンプルなどが必要で、いずれにしても多大な労力を要する。 人工知能は、データサイエンスと機械学習のアルゴリズムだけを使って、安価にデータを生成します建築工人安全

ここ数年、多くの営利目的の合成データ企業や米国の創業経営者が、自社のサービスに対する関心の高さに気づいています。 しかし、アルゴリズムが生活を変えるために広く使われるようになると、人種差別や性差別をはじめ、顔認識、犯罪予測、医療意思決定など影響の大きい分野で有害なバイアスを悪化させることが分かっています。 研究者は、アルゴリズムが生成したデータでアルゴリズムを訓練すると、多くの場面でAIシステムが有害なバイアスを永続させる可能性が高くなると述べています。

精選文章:

零售業將如何受到智能技術的影響?

如何保護物聯網設備免受攻擊?

スマートホームを利用する際のリスクトップ5を教えてください