![]() |
前回(第6回)は、環境問題と人権問題のつながりについて説明しました。今回の記事では、今世界的に注目を集めている「AI(人工知能)」と人権との関係や、AIを活用する上で注意すべきことなどを解説します。(矢守亜夕美)
AIの利用が人権侵害につながる?
近年ますます身近になり、私たちの生活やビジネスを大きく変える技術となったAI(人工知能)。このAIを利用することで、これまで人が行っていた作業を大幅に効率化したり、新しい価値を生み出したりすることが可能になりました。
一方で、その便利さの裏には、あまり気づかれないリスクも潜んでいます。中でも特に重要なのが、人権に関する問題です。
最近のAIの急激な進化に伴って、国連などの国際機関やNGOは「AIが人権に悪影響を及ぼす可能性がある」「AIによる人権侵害を防ぐためのルールが必要」といった声明や報告書を多数発表しています。例えば、ChatGPTの登場が世界中で大きく話題を呼んでいた2023年初旬には、国連の人権高等弁務官が「(AIの進化によって)人間の尊厳やすべての人権が深刻なリスクにさらされている」と発言しました。
「AIが人権侵害につながる」と言われてもすぐにはピンとこないかもしれませんが、実は、AIを開発するプロセスや実際に利用する場面などさまざまな状況の中に、人権に悪影響をもたらしてしまうリスクが潜んでいるのです。
AIによる「差別」や「ディープフェイク」の危険性
![]() |
特に懸念されているのが、AIのアルゴリズムが差別を生む可能性です。AIは過去のデータをもとに学習しますが、そのデータ自体に偏りがあると、AIもその偏りを反映し、差別を助長してしまうことがあります。
例えば、アメリカのAmazon社が過去に開発していたAIによる採用システムの事例が有名です。Amazonは自社が持つデータをもとにAIを訓練し、履歴書をAIで審査できるシステムを作ろうとしました。しかし、このシステムには致命的な問題がありました。過去の履歴書データを学習した結果、女性の応募者にだけ非常に低い評価をつけるようになってしまったのです。これは、過去にAmazonの技術職に応募する人や採用された人の多くが男性だったことが原因でした。AIがその偏ったデータをそのまま学習し、性差別を助長する結果になってしまったのです(結局プロジェクトは2017年に中止となり、このシステムは使用されませんでした)。
また、AIを使った顔認識技術にもリスクがあります。監視や捜査などに使われる顔認識システムは、特定の人種や性別を誤って認識しやすいことが分かっています。そのため、使われ方によっては、特定の属性の人々が不当に逮捕されたり監視されたりしてしまう可能性があります。
さらに、AI技術が悪用される可能性も大きな問題です。最先端のディープフェイク技術を使って偽物の映像や画像が作られ、個人の名誉が深く傷つけられることがあります。また、AIによって本物と見分けのつかないフェイクニュースが作られ、拡散されることで、社会に大きな混乱を招くこともあるでしょう。
加えて、AIを開発するためには、学習元となる大量のデータが必要です。このデータを整備するために多くの労働者が関わっていますが、一部の人々は「ゴーストワーク」と呼ばれる低賃金の仕事を強いられている場合があります。2022年には、ChatGPTの開発プロセスで、殺人・虐待などの有害コンテンツを大量に確認してラベリングするという過酷な作業を、ケニアの労働者が時給2ドル以下で担わされていたことが分かり、問題になりました。こうした「見えない労働」の問題も、AIに関する人権リスクの一つです。
企業や消費者はAIとどう向き合うべきか
このようなリスクに対処するため、国際社会ではさまざまなルールやガイドラインが作られ始めています。EUでは2024年に「AI規則(The AI Act)」が発効されました。この規則では、AIを「許容できないリスク」「ハイリスク」「限定的なリスク」「最小限のリスク」の4つのカテゴリーに分け、それぞれに対応策を求めています。特に「許容できないリスク」に分類されるAIの使用は原則禁止され、「ハイリスク」のAIには厳しい基準が設けられています。AIを開発・利用する企業に厳しいルールを課すことで、人権侵害を未然に防ごうとしているのです。
企業には、AIの開発において公平で偏りのないデータを使用することや、悪用を防ぐための対策を講じることなどが求められています。企業だけでなく消費者も、AIによる人権侵害の可能性に気付いた時は積極的に声を上げたり、企業や行政機関にすぐに報告したりすることが大切です。
AI技術の進化が、例えば病気の早期発見や治療の効率化など、私たちの生活をより良くする可能性を持っているのは確かです。しかしその一方で、ここまで述べてきたように、開発方法や使われ方によっては人権問題を引き起こす危険もあります。技術が急速に進歩する中で、その便利さを生かしながら、リスクとも慎重に向き合っていくことが重要です。AIを活用する企業や組織、そして私たち一人ひとりが、技術の利便性と人権の尊重を両立させるために何ができるかを考え、行動していく必要があるでしょう。
第8回となる次回は、「メディア/エンターテインメント業界の人権リスク」について解説します。

矢守亜夕美(やもり・あゆみ)
株式会社オウルズコンサルティンググループ プリンシパル
A.T. カーニー(戦略コンサルティング)、Google、スタートアップ等を経て現職。東京大学法学部(公法コース)卒。現職では「ビジネスと人権」チームのリーダーを務め、多くの企業の人権・サステナビリティ対応を支援。 著書に『すべての企業人のためのビジネスと人権入門』(共著: 日経BP 社)がある他、経済産業省「ビジネスと人権」セミナー講師(2021年)、東京都人権プラザ主催「サステナビリティと人権」セミナー講師(2022年)等、登壇実績多数。 労働・人権分野の国際規格「SA8000」基礎監査人コース修了。