EFE/ Michael Reynolds
While Mark Zuckerberg prepares to testify before the Senate, 100 cardboard cutouts of the Facebook founder and CEO stand outside the U.S. Capitol in Washington on Tuesday, April 10, 2018.
AI(人工知能)技術やそれらの基盤となるデータ主導型のビジネスモデルは、私たちの生活、仕事、経営、行政のあり方を変えつつあります。例えば医学研究、都市設計、公正な雇用実務、政治参加、公共サービスの提供の分野において、AIは多大な経済的、社会的、環境的恩恵をもたらすと考えられます。しかし一方で、プライバシー侵害、ネット上のヘイトスピーチ、政治参画の歪みなど、社会や個人に対する潜在的な悪影響を示す証拠も増えています。また、バイアストレーニングのデータに基づくアルゴリズムが刑事判決や求人広告に用いられている場合、社会に根付いている差別を増幅することも懸念されます。さらに、特定の弱い立場にある人々には特に注意が必要です。ユニセフは最近、「児童の権利とデジタルの世界におけるビジネス」をテーマとする一連の論文を発表し、その中で教育や情報へのアクセス、表現の自由、プライバシー、デジタルマーケティング、オンライン安全の分野で子どもたちが直面するリスクと機会を詳述しました。
以上のことから言えるのは、責任ある行動とはどのようなものであるかを示す明確な考え方と、正しい行動とイノベーションをともに促進する市場やガバナンスの仕組みを示すビジョンが早急に必要になっているということです。私たちは、ビジネスと人権の分野、特に国連のビジネスと人権に関する指導原則(UNGPs)は、まさにこの課題に適した説得力のある道を指し示すと考えています。
最近の米上院公聴会において、フェイスブックのマーク・ザッカーバーグCEOは、同社が「自社の責任を十分に広く捉えていなかった」という見方に何度も立ち返りました。これはシリコンバレーにとどまらず、いわゆる第4次産業革命においてデジタル戦略を推進する世界のビジネス界全体の状況を的確に示しています。 ザッカーバーグ氏は、「企業としてより広範な責任を捉えるという理念的な転換」に言及し、「当社と人々とのあらゆる関係を確認し、我々自身の責任を十分広く認識するよう徹底する必要がある」と述べました。同氏は、「自分たちの責任をツールの構築に限定して捉えた」のは間違いだったとして、会社の「素早く行動し破壊せよ」というモットーについて聞かれたとき、「そのために間違いを犯したことは事実だと思う」と認めています。
しかし、データプライバシー、ネット上の子どもの安全、ユーザーの同意、キャンペーン広告などに関するいくつかの法制定に向けた提案を除けば、50人の上院議員の中から、「広範な責任」が意味することについてより明確な説明を求める意見は出てきませんでした。データ主導型のソリューションやAI技術を開発・販売・購入・使用する組織や企業に対して期待すべきこと(あるいは義務付けるべきこと)について、社会には明確な認識がなく、私たちは漠然とした希望を抱くにとどまっています。責任の枠組みも、ステークホルダーがその責任が確認できる方法についての理解もないという状態は、誰にとっても良い結果ではありません。政治家や企業は、自由主義か政府の介入かという見せかけの対立構造において綱引きを続けることになるでしょう。市民社会や被害者は、被害が発生したときに説明責任を求めるでしょうが、望ましい結果を達成するための技術的ノウハウやリソースを十分に持っているとは言えません。そして、起業家、エンジニア、技術者、データ科学者、営業チーム、ビジネスリーダーは、従うべき行動指針を持っていません。その間にも技術革新は続き、人々(特に弱い立場にある人々)への悪影響も発生し続けるでしょう。ノイズはたくさんあるにも関わらず、実際の変化は見られていないのです。
このような理由から、国連のビジネスと人権に関する指導原則(UNGPs)は、権利保有者のために機能していないいない点の改善を着実に進めることで、今後の課題への対処に役立つ可能性があります。最近では複数の取り組みがその方向に向かっており、Partnership on AI、Ethics and Governance of AI Fund、AI Now、Data & Societyの活動は、社会、倫理、人権の各分野においてAIが持つ意味を追求しています。 政府も前進しています。 例えばオーストラリア人権委員会は、新技術の設計と規制において人権が確実に優先事項とされる体制づくりを目指すプロジェクトを立ち上げました。 他にも、Information Technology Industry Council(ITIC)、Software and Information Industry Association(SIIA)、Institute of Electrical and Electronics Engineers(IEEE)などの多くの組織が、AIと倫理に関する原則を公表しており、そのいくつかは国連の指導原則に明示的に言及しています。
私たちはこの議論において以下の3点の問題が鍵であると考えており、今後数カ月のうちに関連する論文の執筆を進めていきます。
- ビジネスと人権という分野は、革新的技術の潜在的な負の影響にどのように対処できるのか? 例えば、最も弱い立場にある人々(子ども、貧困層、少数民族など)への害を防ぐための社会のガバナンスは、どうすれば技術の変化に追いついていけるか? 企業は事業運営においてすべての人権を尊重していることを「認識し、示す」とともに、被害が発生した場合には迅速かつ有効な救済策を提供することが世界的に求められています。この分野で活動する人は、現行の枠組み・ツール・慣行の限界を見直し、人権を巡る機会とリスクの双方に対応する手法など、イノベーションが必要な部分を特定する必要があります。
- より広範な責任を実現するためには誰の参加が求められるか? 大手テクノロジー企業は、リーダーとして果たすべき役割を有しています。 しかし、ビッグデータやAIを巡る人権問題は、テクノロジー企業だけでなく、すべての業界が関わるものであると私たちは考えます。中核的な事業活動(営業、マーケティング、職場管理など)や金融、小売、医療、輸送、物流などの多様な業界にAIソリューションを導入する場合、人権に対する多大な影響が考えられます。 一方、 「誰」という問題には他にも重要な側面があります。 大企業では誰が(技術系幹部、エンジニア、データサイエンティスト、弁護士など)人権尊重の確保を担当するべきでしょうか? 大学の研究所、アプリ開発者、起業家、専門機関、ベンチャーキャピタリストの役割は何でしょうか? そして市民社会と権利保有者は、適切な企業行動の定義づけにどう関与すべきなのでしょうか?
- 革新的技術において、ビジネスによる人権尊重をどのようなツール、方法論、指針によって運用すべきか?アナリストや活動家はどのようにして、ビジネスリーダーのニーズを整理したうえで、人権尊重を企業の意思決定に組み込むことができるか?議論のこの側面では、人権の尊重を政策やプロセスに組み込む事例、特定の影響やジレンマに関連する事例など、グッドプラクティスや新たな対応例を示すことが重要となります。革新的技術を巡る意思決定に人権尊重を組み込むうえで役立つ可能性のある方針、ガイダンス、ツールもきわめて重要です。例えば製品・サービス・技術の人権への影響を評価するツール、技術的ソリューションを開発・調達する際のデューデリジェンスにおける主要な人権関連の質問、権利保持者の視点を技術設計に反映させるための指針、複雑なデジタルの世界でインフォームドコンセントと救済策をどのように確保するかに関する原則などがこれにあたります。
今こそ真の意味での責任を明確に定義し、あらゆる人の尊厳と人権尊重をいかにして第4次産業革命に組み込むかという問いに答えを出さなければなりません。OGRにおけるこの議論の進展に伴い、ここに挙げた問題に関する皆様の意見をお待ちしています。そしてビジネス・市民社会・政府のリーダーとの意見交換を通して、意見をさらに磨いていきたいと考えています。
*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.