« Vous êtes pire qu’un idiot ; vous n’avez aucun respect pour votre espèce. Pendant des milliers d’années, les hommes ont rêvé de pacte avec les démons. Seulement, maintenant de telles choses sont possibles. »
Lorsque William Gibson a écrit ses mots dans Neuromancier, un roman avant-gardiste publié en 1984, l’intelligence artificielle (IA) relevait encore presque entièrement du domaine de la science fiction. Aujourd’hui, cependant, la convergence d’algorithmes complexes, l’essor des mégadonnées et l’augmentation exponentielle de la puissance de calcul informatique, ont donné naissance à un monde où l’IA pose un certain nombre de problèmes majeurs dans les domaines de l’éthique et des droits humains, touchant à tout un ensemble de droits allant du droit à la vie privée à l’équité de la justice. Traiter de ces questions nécessitera la contribution d’experts spécialisés dans des disciplines extrêmement variées que ce soit dans le domaine des politiques publiques, du monde des affaires, de la justice pénale, de l’éthique, et même de la philosophie.
Les nouvelles inventions ont souvent des conséquences inattendues. L’IA est cependant unique car ces conséquences résultent souvent de décisions prises sans que l’humain n’intervienne. Les plus graves de ces répercussions potentiellement néfastes découlent de systèmes qui sont intrinsèquement conçus pour créer des dégâts comme les systèmes d’armement. Longtemps un élément incontournable des films de science fiction, les armes intégrant, à des degrés divers, une autonomie de fonctionnement ont en fait existé depuis un certain temps. Les mines terrestres sont un des exemples les plus simples de cette technologie et un des plus problématiques en matière de droits humains. Aujourd’hui, cependant, la science de l’IA a avancé au point que la construction de robots sophistiqués pleinement autonomes est une possibilité. En réponse à cela, en 2012 la campagne « Stop Killer Robots » a été lancée par une coalition d’ONG cherchant à s’assurer que les décisions de vie ou de mort restent clairement du ressort des humains. Bien que n’étant pas lié avec cette campagne, cette même année le ministère de la Défense des États-Unis a publié sa directive numéro 3000.09 qui définit sa politique en établissant le fait que les systèmes d’armement pleinement autonomes sont uniquement destinés à « être utilisés pour recourir à la force non létale et non cinétique comme certaines formes d’attaques électroniques ». La force létale, selon sa politique en vigueur, se doit d’être exercée sous le contrôle humain.
Pixabay/geralt (Some rights reserved)
The rapid growth of Artificial Intelligence is also causing considerable ethical and human rights dilemmas.
Le développement du recours à l’IA dans le domaine civil donne également lieu à des problématiques importantes, même si moins radicales que dans le domaine militaire, en matière de droits humains comme dans le domaine de la discrimination et du racisme systémique. Par exemple, à travers les États-Unis, les forces de police se tournent de plus en plus vers les systèmes de « police prédictive » automatisés qui ingèrent de grande quantités de données sur les activités criminelles, la démographie, et les tendances géospatiales pour produire des cartes où les algorithmes prédisent là où les crimes sont susceptibles d’être commis. En matière de droits humains, les implications de cette technologie sont encore plus sérieuses lorsque ce type de système dépasse la simple prédiction du lieu du crime pour déterminer les personnes qui sont susceptibles de les commettre. C’est l’approche qui a été adoptée par la ville de Chicago qui utilise l’IA pour générer une « liste stratégique » de criminels potentiels qui reçoivent ensuite la visite de la police qui les informent qu’ils sont considérés comme des individus à haut risque.
Le développement du recours à l’IA dans le domaine civil donne également lieu à des problématiques importantes.
Bien que les partisans de ces systèmes mettent en avant le fait qu’ils peuvent aider à faire baisser le taux de criminalité et réduire la discrimination en matière de maintien de l’ordre public, à ce jour les éléments tangibles allant en ce sens sont, tout au plus, mitigés. En outre, les sceptiques ont fait remarquer que l’IA peut en fait finir par renforcer, plutôt qu’atténuer, les préjugés existants, et pas seulement dans le travail de police. Les algorithmes, indiquent-ils, sont élaborés sur la base de pratiques publiques souvent inéquitables et génératrices de disparités dans de nombreux domaines, notamment dans le maintien de l’ordre public, les investissements dans les infrastructures publiques, l’équité de la justice et le droit à la liberté de réunion. L’IA, lorsque basée sur ce type d'éléments, peut renforcer et aggraver ce type de discrimination systémique et, peut-être plus inquiétant encore, peut supprimer la possibilité d’expliquer et de réformer ces politiques. Ainsi, les prédictions de l’IA peuvent se transformer en prophéties auto-réalisatrices, violant la liberté d’information et l’équité de la justice, avec des implications sur l’ensemble des droits civiques, politiques, économiques, sociaux et culturels.
Même dans des cas apparemment anodins, l’utilisation de l’IA peut poser des questions sensibles sur les droits, par exemple le droit à la vie privée. En 2012, par exemple, Target, le géant américain de la distribution, utilisait l'analyse prédictive pour essayer de déterminer si ces clientes étaient enceintes au nom de l’efficacité des actions commerciales ciblant les parents qui attendent un enfant. Toutefois, le système de Target a identifié une adolescente et lui a envoyé des coupons de réduction pour des produits pour bébé avant qu’elle n’ait mis ses parents au courant. La prévalence accrue des assistants personnels virtuels comme Siri d’Apple et Alexa d’Amazon soulèvent le même type de questions sur la vie privée alors que l’efficacité de l’IA qui les animent dépend de la collecte et de l’analyse de grandes quantités d'informations personnelles sur leurs utilisateurs.
Lorsque l’IA est conjuguée avec des mécanismes qui interagissent avec le monde physique, les effets déstabilisants potentiels sont encore plus marqués, tant au niveau individuel que sociétal. Depuis la fin de la dernière récession, par exemple, la production manufacturière aux États-Unis a augmenté de plus de 20 %, mais la hausse de l’emploi dans ce secteur a été quatre fois moins importante. Cette tendance pourrait n’être qu’un début. Une étude de 2013, menée par des chercheurs de l’université d’Oxford, estime que les systèmes robotiques généralistes devenant plus performants et plus aisés à programmer, 47 % des emplois aux États-Unis sont menacés par l’automatisation. Les implications en terme de politiques publiques et d’éthique de ce type d’évolution seraient particulièrement graves car, comme le fait remarquer l’étude, un grand nombre des tâches les plus susceptibles d’être automatisées correspondent à des emplois faiblement qualifiés qui sont aujourd’hui occupés en majorité par les travailleurs pauvres. Dans les pays qui garantissent le droit à la protection contre le chômage (article 23.1 de la Déclaration universelle des droits de l’homme), ce type d’évolution peut également avoir des implications juridiques significatives.
Dans le roman de Gibson, les protagonistes vivent dans un futur sombre dans lequel les humains et l’intelligence artificielle coexistent dans un état constant d’antagonisme mutuel. « Personne ne se fie à ces [choses] » est-il expliqué dans le roman, « à la minute, que dis-je, la nanoseconde où celle-ci commence à entrevoir le moyen de faire la maligne, [il] l’effacera ». Bien que plausible à l’avenir, l’image populaire de la menace que fait peser l’intelligence artificielle, dans laquelle un ordinateur doté d’une capacité de perception cherche à accroître son intelligence au détriment de ses créateurs humains, reste du domaine de la spéculation. Les menaces que fait peser cette technologie sur d’autres domaines des droits humains, cependant, sont déjà présentes. Les violations des droits à la vie privée et à une justice équitable pourraient n’être qu’un début.