公平性と倫理性への配慮

公平性と倫理性への配慮

最近、ある機械学習モデルを学習させて導入したところ、導入後に特定のマイノリティグループに偏った予測や、常識を覆すような予測をしていることにユーザーが気づいたというケースが相次いでいます。このような予測は、対処しなければ明らかに有害な結果をもたらす可能性があり、このようなミスがもたらすダメージは、せっかく成功したAI技術導入プログラムを頓挫させる可能性があります。

このような失敗を防ぐためには、最初から公平性を重視する必要があります。そのためには、企画・開発段階で、この技術の影響を受ける可能性のあるすべてのステークホルダーを特定し、最初から開発、品質保証の段階まで、そのプロセスに参加してもらうことから始めます。

データに関しては、データ・プライバシーが最も重要であることは誰もが認識しています。
しかし、未だに多くの企業がデータ管理ポリシーを持たず、データの取り扱い方法について透明性に欠けていることがわかっています。ある企業のデータポリシーは、インフラの実態を反映していない⻑い法的文書に埋もれているため、ユーザーが理解するのは困難な場合が多いのです。私たちは、シンプルで透明性の高いデータポリシーを策定することが重要だと公平性と倫理性への配慮考えています。それによって、お客様が自分のデータについて十分な情報を得た上で判断できるようになると同時に、システムへの信頼性を高めることができるのです。

また、品質管理や検査に十分な時間をかけることも見落とされがちです。自動回帰テストや、モデル開発時には見られなかった別のデータを使ったテストだけでなく、エッジケースをテストするための人間による検査も必要です。また、モデルが行う特定の判断を説明できることも、ある種の不安を解消するのに役立ちます。モデルの説明可能性の分野はまだ非常に若く、モデルの出力をどのように説明するかについて十分な答えがない場合もありますが、ある種の可視化技術や数学的な保証は、広範なテストと相まって、モデルが壊滅的なミスを起こす可能性が低いことを裏付けます。また、機械学習モデルと論理ベースのシステムを組み合わせることで、予測不可能なシナリオに対する安全策を講じることができます。肝心なのは、これらのテストに十分な時間を割くことです。これらのテストは、導入を急ぐあまり見過ごされがちです。

Recursiveでは、このようなシンプルな原則に基づいてAIを開発することで、AIの開発が社会に良い影響を与えることができると考えています。AI研究の第一人者たちが最近発表した「AI for social good」では、特定の提言に従ったAI開発が、SDGs達成のための重要な実現技術となることが示唆されています。

"AI for social good"では、倫理的なAI開発のための重要な原則を紹介しています。

  1. AIで何ができるのかという期待には、十分な根拠が必要です。
  2. シンプルなソリューションには価値があります。
  3. AIのアプリケーションは、包括的で利用しやすく、倫理と人権の遵守のためにすべての段階で審査される必要があります。
  4. 目標とユースケースは、明確に定義されていなければなりません。
  5. 大きな問題を解決するためには、深くて⻑いパートナーシップが必要です。
  6. 計画では、インセンティブを調整し、双方のコミュニティの限界を考慮する必要があります。
  7. 組織の壁を乗り越えるには、信頼関係の確立と維持が重要です。
  8. AIソリューションの開発コストを削減するためのオプションを検討する必要があります。
  9. データレディネスの向上が鍵となります。
  10. データは、人権とプライバシーを最大限に尊重し、安全に処理されなければなりません。

私たちは、これらのガイドラインが必要最低限の要件を満たしていると考えています。また、今後より多くのことがわかってくれば、このリストに追加していきます。この取り組みにとって、AI開発者の多様性を高め、より多くのコミュニティをAI開発に参加させることは、重要です。

大きな問題を解決するために必要な⻑期にわたる深いパートナーシップは、すべての関係者がお互いに信頼関係を築くことができなければ達成できません。
Contact
ご不明な点がございましたら、お問い合わせください