Les problèmes juridiques potentiels de l'IA (et pourquoi vous devriez vous en soucier)

Publié: 2022-05-07

Nous avons de grands rêves pour l'intelligence artificielle depuis des années. Des Jetsons nous montrant des robo-maids sarcastiques aux robots rêvant de moutons électriques, en passant par les promesses plus réalistes de diagnostics de robots dans les hôpitaux , nous entendons parler d'IA réaliste qui est vraiment utile aux humains depuis un certain temps.

Alors que nous entrons dans une ère où nous voyons de plus en plus d'IA dans notre vie quotidienne, nous devons commencer à examiner les implications juridiques de ces nouvelles technologies. L'IA sera-t-elle un atout ou un handicap ? Examinons quelques problèmes déjà en gestation.

Problèmes juridiques liés à l'IA

Attendez, qu'est-ce que l'IA ?

S'agit-il de robots prêts à conquérir le monde ? Est-ce Siri ? S'agit-il de robots militaires ? Est-ce Tom Servo et Crow ?

Des robots du Mystery Science Theatre disant "Avez-vous pensé à ce que vous voulez pour Noël ?"

Je parie que tu pensais que j'étais trop jeune pour cette blague, hein ? Blagues sur vous, cette émission est sur Netflix !

L'IA, ou intelligence artificielle, est la capacité d'une machine à être "intelligente". Si cela semble super large, c'est parce que ça l'est. Nous avons déjà des machines que nous considérons comme « intelligentes » pour leur capacité à faire des choix et à évaluer des situations à l'aide d'une programmation sophistiquée.

Le concept d'IA est souvent confondu avec l'apprentissage automatique , c'est-à-dire lorsque les machines sont capables de s'appuyer sur leur programmation d'origine et «d'apprendre». Je confonds en fait ces deux termes dans cet article, juste pour faciliter la vie de mes lecteurs.

Pour ma défense, au moins je suis intentionnel.

Si l'IA et l'apprentissage automatique permettent aux robots et aux programmes informatiques d'être intelligents, d'apprendre, de grandir et de changer les créatures, à quel moment les considérons-nous suffisamment conscients pour écouter, jouer le rôle de « témoin » ou avoir des droits qui leur sont propres ?

Alexa citée à comparaître

Nous prenions tous des paris sur le temps qu'il faudrait pour que cela se produise, n'est-ce pas ? Une affaire judiciaire en cours a appelé Alexa, le nom par défaut donné à l'assistant domestique Amazon Echo, à la barre.

Bon, d'accord, pas littéralement. Mais les données d'un Amazon Echo ont été citées à comparaître dans une enquête pour meurtre . L'idée est que si Alexa écoute, elle a peut-être entendu (et enregistré) un véritable meurtre. La preuve est aussi bonne qu'une caméra de sécurité et meilleure qu'un témoin humain pour prouver un crime, si seulement Amazon dévoilait les informations.

Sans surprise, Amazon n'était pas ravi du précédent créé par la saisie des informations enregistrées d'Alexa. Ils combattent donc le mandat , déclarant que la communication avec l'appareil est considérée comme une parole protégée, et la remise des enregistrements créerait un précédent qui pourrait entraîner des violations de la vie privée des utilisateurs d'Echo.

Et Alexa écoute, au cas où vous vous demanderiez ce que je voulais dire. Alexa est le mot de commande donné à Amazon Echo et Echo Dot. Après la commande, l'Echo prend tout ce qui a été dit et suit la demande donnée. Mais pour entendre le mot de commande en premier lieu, l'écoute du microphone doit être activée. Amazon assure aux utilisateurs que seules les phrases de commande sont envoyées au stockage en nuage, mais cela nous permet toujours de savoir qu'Alexa attend toujours son nom.

En d'autres termes, Alexa est toujours à l'écoute , mais son nom lui fait prêter attention . Ce qui est un peu effrayant quand on y pense, surtout en sachant que cette écoute passive pourrait permettre à Alexa d'entendre un meurtre.

Il vous entend quand vous dormez

Donc, si Amazon Echo est toujours, toujours à l'écoute, qu'est-ce que cela signifie pour la confidentialité ? Selon Amazon, l'Echo n'enregistre ni ne stocke aucune information qui n'a pas été relayée avec le mot déclencheur "Alexa". Pourtant, si l'Echo est allumé, il a la capacité d'écouter, une capacité qui pourrait potentiellement être activée à une date ultérieure.

La confiance que vous accordez à cette promesse est directement liée à la confiance que vous accordez à Amazon. Lorsqu'ils disent vouloir protéger la communication de l'utilisateur avec Alexa, veulent-ils la protéger pour le bien de l'utilisateur ou pour le leur ?

C'est l'une des plus grandes préoccupations que beaucoup de gens ont à propos de l'essor de l' Internet des objets . Essentiellement, l'« IoT » est un système d'objets physiques qui sont connectés les uns aux autres ainsi qu'à Internet, et peuvent interagir avec les utilisateurs d'une manière que nous considérons comme « intelligente ». Certaines personnes pensent que l'interconnexion est excellente, tandis que d'autres la voient comme une technologie qui saute le requin et envahit la vie privée des humains.

Et certaines personnes détestent vraiment, vraiment l'IoT (langage fort dans le lien). Ce qui est juste, étant donné que l'essor de l'IoT augmente le nombre d'éléments dans votre maison qui suivent, stockent et enregistrent vos données jusqu'à ce que leurs sociétés mères en profitent ou qu'un pirate ennuyé décide d'exécuter Doom sur votre réfrigérateur .

Mais qu'en est-il d'Alexa ? N'a-t-elle pas son mot à dire dans tout cela ? La réponse est peut-être.

Un moment maladroit d'Isaac Asimov

Si vous êtes un méga-nerd comme moi, vous connaissez probablement déjà les trois lois de la robotique de l'écrivain de science-fiction Isaac Asimov. Si ce n'est pas le cas (ou si vous souhaitez un rappel sans vous baisser vers Google), les règles sont les suivantes :

  1. Un robot ne peut blesser un être humain ou, par inaction, permettre à un être humain de se blesser.
  2. Un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf si ces ordres entrent en conflit avec la première loi.
  3. Un robot doit protéger sa propre existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi

Ces « lois » sont tirées d'une des nouvelles d'Asimov et constituent la base d'une grande partie du conflit dans son œuvre. Dans leur élégance simple, les lois ont en fait été utilisées et référencées par des concepteurs de robotique réels, ce qui est plutôt cool.

Il est facile d'inventer des lois pour la programmation de logiciels, ce qui est vraiment tout ce que sont les lois d'Asimov, mais les choses se compliquent rapidement lorsque ce logiciel commence à interagir avec les gens. Alors voici une question : comment faire en sorte que les robots suivent ces règles s'ils acquièrent le libre arbitre ?

Grand saut ? Pas vraiment. Ce conflit spécifique est le concept derrière une grande partie du travail d'Asimov, ainsi que de nombreux écrits de science-fiction en général. Mais vraiment, comment le système juridique abordera-t-il l'humanité de l'IA ?

Au moins un procès simulé a déjà posé la question.

En 2004, un procès simulé a eu lieu à San Francisco pour déterminer le sort de BINA48, une IA fictive appartenant à une société fictive, qui peut ou non avoir réussi à prendre conscience. Dans le cas, un robot qui faisait le travail de 1 000 agents du service client avait découvert par la correspondance de l'entreprise qu'il devait être arrêté. Le programme a contacté un avocat, demandant une aide juridique pour empêcher sa « mort ».

Alors que le concept semble futuriste, qui peut dire que la législation nécessaire pour un tel cas n'est pas déjà en place ? Dans ce cas, les lois concernant les droits des patients en réanimation sont entrées en jeu, un rappel intéressant de la variété de situations que des lois apparemment insignifiantes pourraient un jour devoir couvrir.

Certaines publications sont allées jusqu'à suggérer que les affaires judiciaires centrées sur l'IA pourraient rapidement devenir une question de droits civils .

Tout compte fait, cela reste un problème pour l'avenir. Néanmoins, les droits et les responsabilités de l'IA sont une chose à laquelle il faut réfléchir avant qu'ils ne deviennent un problème.

Quels problèmes juridiques liés à l'IA prévoyez-vous ?

Êtes-vous inquiet pour les droits de Siri et Alexa et des futurs programmes comme eux ? Ou pensez-vous qu'ils ne sont que des espions électroniques pour leurs sociétés mères ? Peut-être êtes-vous tout simplement enthousiasmé par les preuves qu'ils pourraient aider les futurs avocats à recueillir. Quelle que soit la réponse, il est clair que l'intelligence artificielle s'accompagne d'une multitude de problèmes juridiques inhérents.

Dites-moi ce que vous en pensez dans les commentaires ci-dessous. Abonnez-vous à ma liste de diffusion pour plus d'actualités et de critiques sur les technologies juridiques, et consultez ces articles pour plus de contenu comme celui-ci :

  • Les 15 meilleures statistiques de marketing juridique pour 2017 Pour en savoir plus sur l'avenir de la legal tech
  • Applications de conseils juridiques : outils utiles ou chatbox zombies ? Pour en savoir plus sur l'IA en action
  • Pourquoi les signatures numériques devraient être utilisées dans chaque service juridique Au cas où vous vous demanderiez comment la technologie peut aider votre entreprise