Intelligence artificielle : problèmes juridiques au Royaume-Uni

Publié: 2020-07-16

Le Royaume-Uni est l'un des leaders européens de l'intelligence artificielle, notamment dans le secteur de la santé. Selon le McKinsey Global Institute, l'IA peut stimuler l'économie du Royaume-Uni de 22 % d'ici 10 ans.

Si vous développez une startup basée sur l'IA ou tout type de produit alimenté par l'IA au Royaume-Uni, vous êtes dans une meilleure position que le reste de l'Europe. Le pays est particulièrement ouvert à l'innovation et le gouvernement soutient vivement de nombreuses initiatives. Par exemple, l'Institut Alan Turing sert d'entité nationale pour l'intelligence artificielle et la science des données, tandis que la Chambre des Lords a également son propre comité axé sur l'IA.

Cette culture axée sur les données fait du Royaume-Uni une importante plaque tournante de l'intelligence artificielle. Un rapport de Coadec suggère que chaque semaine, une nouvelle startup d'IA est fondée dans le pays. Avant de commencer, cependant, il y a quelque chose que vous devez d'abord considérer : les exigences légales et les problèmes juridiques les plus courants liés à l'IA .

Comme l'IA est un domaine nouveau et en développement, ses exigences sont légèrement différentes de celles d'autres industries plus traditionnelles. Si vous cherchez des conseils juridiques, nous sommes là pour vous aider à démarrer.

Voici quelques-unes des questions juridiques les plus importantes en matière d'IA à prendre en compte :

La définition légale de l'IA

Tout d'abord, comment définissez-vous même l'intelligence artificielle ?

Voici où le problème commence. Certains législateurs s'en tiennent à cette heuristique et définissent l'IA comme une combinaison de logiciels et de données . Cela semble assez simple, mais il faut souligner que nous avons affaire à des logiciels plus sophistiqués et à des volumes de données plus importants que jamais auparavant.

D'autres professionnels du droit, tels que Jonas Schuett de l'Université Goethe, suggèrent qu'il vaut mieux éviter le terme intelligence artificielle . Il dit qu'il n'y a pas de définition de l'IA qui réponde aux exigences des définitions légales . Au lieu de cela, il suggère de se concentrer sur :

  • certains dessins
  • cas d'utilisation
  • capacités avec les risques possibles à l'esprit

Ces suggestions s'adressent principalement aux décideurs politiques, mais elles peuvent également vous servir de ligne directrice. Pour bien faire les choses, il est préférable de se concentrer sur le cas très spécifique de l'utilisation de l'IA et des risques qui en découlent.

Icône IA

Améliorez votre produit avec des solutions basées sur l'IA

Apprendre encore plus

Définition de l'IA au Royaume-Uni

En ce qui concerne la définition légale de l'intelligence artificielle , voici comment le gouvernement britannique la décrit :

[…] des technologies capables d'effectuer des tâches qui nécessiteraient autrement l'intelligence humaine, telles que la perception visuelle, la reconnaissance vocale et la traduction linguistique.

Le parlement britannique a récemment ajouté un autre aspect à cette définition. Il est important de noter que les systèmes d'IA ont la capacité d'apprendre ou de s'adapter à de nouvelles expériences ou stimuli.

Les principaux enjeux juridiques de l'IA

Traiter de grandes quantités de données

Pour fonctionner correctement, les algorithmes d'intelligence artificielle ont besoin de beaucoup de données. Et voici un autre problème juridique lié à l'IA : qui possède les données et qui s'occupe de la sécurité ? Cela devient encore plus compliqué avec des informations sensibles dans des secteurs comme la banque ou la santé.

Il existe deux principales lois sur la sécurité des données actuellement en vigueur au Royaume-Uni :

Loi Informatique et Libertés et RGPD (Règlement Général sur la Protection des Données)

En 2018, la loi sur la protection des données a remplacé un règlement de 1998. Avec le RGPD, elle façonne le traitement des données personnelles au Royaume-Uni.

Comme vous le savez probablement déjà, cela a complètement changé la façon dont nous traitons les données personnelles dans l'Union européenne. Même malgré tous les changements qui accompagnent le Brexit, les entreprises britanniques doivent toujours se conformer au RGPD, car elles traitent souvent les données d'autres clients européens.

Certaines des implications liées à l'IA qui accompagnent le RGPD incluent :

  • Principe d'équité - Cet objectif prétend qu'une entreprise peut traiter les données du sujet conformément à ses intérêts. Les données d'entrée biaisées sont un énorme problème dans l'IA - nous allons couvrir cela plus en détail plus tard, avec des exemples pratiques.
  • Limitation de la finalité - L'utilisateur doit avoir accès aux informations sur la raison pour laquelle vous collectez ses données. Comme l'IA nécessite de gros volumes d'informations, vous devez faire savoir à votre public ce que vous allez en faire.
  • Transparence et accès aux informations – Vos clients ont le droit d'accéder à leurs données et de demander à les supprimer sur simple demande. C'est ce qu'on appelle le droit à l'oubli .

L'histoire du Royal Free NHS Foundation Trust et de DeepMind, l'unité d'intelligence artificielle de Google, en est un exemple intéressant. La collaboration entre ces deux parties est connue pour avoir violé les lois britanniques sur la protection des données . L'ICO, l'autorité de confidentialité des données du Royaume-Uni, a découvert que les patients n'étaient pas informés que leurs données seraient utilisées pour le développement d'une solution d'IA.

Anonymisation des données

Pour utiliser et partager de gros volumes de données sans enfreindre la loi, vous devez d'abord les anonymiser. Données anonymisées est un terme pour décrire des informations que l'on n'est pas en mesure de relier à un individu vivant. Lorsque les données sont anonymisées, la loi britannique sur la protection des données ne s'applique plus.

Le processus d’anonymisation nécessite de se débarrasser :

  • identifiants directs , tels que le nom, l'adresse e-mail ou le numéro de téléphone
  • identifiants indirects qui pourraient révéler l'individu par des renvois croisés, tels que le lieu de travail et le lieu

Cette pratique aide à protéger la vie privée des utilisateurs, mais la suppression des identifiants n'est que le début du voyage :

Problèmes éthiques et préjugés

Bien que le nom d'intelligence artificielle puisse suggérer le contraire, cette technologie n'est pas à l'abri de biais de type humain. Dans son livre Technically Wrong , Sara Wachter-Boettcher décrit une série de cas où l'IA va, eh bien, terriblement mal.

L'auteur prouve que si l'intelligence artificielle peut être assez autonome, elle est toujours basée sur une sorte d'entrée, qui n'est pas exempte de biais et de nos hypothèses initiales. Par exemple, elle a décrit le cas de l' algorithme de Google Photos . L'objectif était de détecter ce qu'il y avait sur l'image, mais il comportait une sérieuse limitation : il considérait les personnes à la peau blanche comme étant par défaut. À cause de cela, il était susceptible de marquer automatiquement les Noirs comme… des gorilles. L'un des utilisateurs a découvert que l'algorithme les considérait comme des singes dans tous les albums Google Photos.

Dans ce cas, le problème réside dans les données d'entrée. Le réseau de neurones s'est entraîné principalement sur des modèles blancs, c'est pourquoi il n'a pas saisi les différences raciales. Même si l'algorithme n'était pas explicitement raciste, il affiche toujours un préjugé racial apparent.

Des cas comme ceux-ci prouvent que, en termes simples, l'IA est ce que nous en faisons. Nous l'alimentons avec des informations affectées par nos propres préjugés et limites. Wachter-Boettcher a nommé l'une des sections de son livre Biased Input, Even More Biased Output . Cette courte phrase décrit comment l'IA peut intensifier les problèmes éthiques potentiels.

Défis juridiques

Comme nous l'avons mentionné, l'IA est autonome, mais la question est : qui est responsable des dommages qu'elle peut causer ?

En ce qui concerne les réglementations légales britanniques, un système automatisé (tel qu'un algorithme d'IA) n'est pas un agent face à la loi. La responsabilité incombe à ses créateurs, tels que les parties prenantes, les opérateurs, les concepteurs ou les testeurs du système.

La question de la responsabilité des dommages causés par l'IA est un sujet brûlant lorsqu'il s'agit d'introduire de nouveaux produits, comme les voitures autonomes. Le Parlement européen a publié un projet de rapport contenant des recommandations concernant un régime de responsabilité civile et son adéquation à l'IA.

Le Parlement a souligné qu'il n'est pas toujours possible de faire remonter des actions spécifiques à une contribution ou à une conception humaine spécifique . Pour cette raison, ils suggèrent que la responsabilité devrait être basée sur le risque et que les déployeurs de systèmes d'IA devraient envisager de souscrire une assurance responsabilité.

Dans les années à venir, nous allons voir comment les différentes juridictions réagiront aux produits d'IA afin d'assurer une indemnisation appropriée de tout préjudice.

Enjeux juridiques de l'intelligence artificielle : réflexions finales

Nous espérons que ce résumé vous a aidé à en savoir plus sur le statut juridique et les problèmes juridiques les plus courants liés à l'IA au Royaume-Uni .

Chez Miquido, nous travaillons avec des années d'expérience dans la création de solutions d'IA pour le marché britannique. Si vous souhaitez discuter d'une solution basée sur l'IA qui répondra aux besoins de votre entreprise, ou simplement poser une question, n'hésitez pas à nous contacter !

Un merci spécial à WKB – Wiercinsi, Kwiecinski, Baehr pour leurs trucs et astuces juridiques, qui nous ont aidés à rédiger cet article !