Intelligenza artificiale: questioni legali nel Regno Unito

Pubblicato: 2020-07-16

Il Regno Unito è uno dei leader europei nell'intelligenza artificiale, in particolare nel settore sanitario. Secondo il McKinsey Global Institute, l'IA può aumentare l'economia del Regno Unito del 22% entro 10 anni.

Se stai sviluppando una startup basata sull'intelligenza artificiale o qualsiasi tipo di prodotto basato sull'intelligenza artificiale nel Regno Unito, sei in una posizione migliore rispetto al resto d'Europa. Il Paese è particolarmente aperto all'innovazione e il governo sostiene con fervore molte iniziative. Ad esempio, l'Alan Turing Institute funge da entità nazionale per l'intelligenza artificiale e la scienza dei dati, mentre la Camera dei Lord ha anche un proprio comitato incentrato sull'intelligenza artificiale.

Questa cultura basata sui dati rende il Regno Unito un importante hub di intelligenza artificiale. Un rapporto di Coadec suggerisce che ogni settimana nel Paese viene fondata una nuova startup di intelligenza artificiale. Prima di iniziare, però, c'è qualcosa che dovresti considerare prima: requisiti legali e problemi legali più comuni relativi all'IA .

Poiché l'IA è un campo nuovo e in via di sviluppo, ha requisiti leggermente diversi rispetto ad altri settori più tradizionali. Se stai cercando una consulenza legale, siamo qui per iniziare.

Ecco alcune delle questioni legali più importanti da considerare per l'IA:

La definizione giuridica di AI

Prima di tutto, come si definisce l'intelligenza artificiale?

Ecco dove inizia il problema. Alcuni legislatori si attengono a questa euristica e definiscono l'IA come una combinazione di software e dati . Sembra abbastanza semplice, ma va sottolineato che abbiamo a che fare con software più sofisticati e volumi di dati più grandi che mai.

Altri professionisti legali, come Jonas Schuett della Goethe University, suggeriscono che sia meglio evitare il termine intelligenza artificiale . Dice che non esiste una definizione di IA che soddisfi i requisiti per le definizioni legali . Suggerisce invece di concentrarsi su:

  • determinati disegni
  • casi d'uso
  • capacità tenendo conto dei possibili rischi

Questi suggerimenti sono rivolti principalmente ai responsabili politici, ma possono anche essere salvati come linea guida per te stesso. Per farlo bene, è meglio concentrarsi sul caso molto specifico dell'uso dell'IA e sui rischi che ne derivano.

Icona dell'IA

Migliora il tuo prodotto con soluzioni basate sull'intelligenza artificiale

Scopri di più

Definizione di AI nel Regno Unito

Quando si tratta della definizione legale di intelligenza artificiale , ecco come la descrive il governo del Regno Unito:

[…] tecnologie con la capacità di svolgere compiti che altrimenti richiederebbero l'intelligenza umana, come la percezione visiva, il riconoscimento vocale e la traduzione linguistica.

Il parlamento britannico ha recentemente aggiunto un altro aspetto a questa definizione. È importante notare che i sistemi di IA hanno la capacità di apprendere o adattarsi a nuove esperienze o stimoli.

Le principali questioni legali dell'IA

Elaborazione di grandi quantità di dati

Per funzionare correttamente, gli algoritmi di intelligenza artificiale hanno bisogno di molti dati. Ed ecco che arriva un'altra questione legale relativa all'IA: chi possiede i dati e chi si occupa della sicurezza? Diventa ancora più complicato con le informazioni sensibili in settori come quello bancario o sanitario.

Ci sono due principali atti di sicurezza dei dati attualmente in vigore nel Regno Unito:

Legge sulla protezione dei dati e GDPR (regolamento generale sulla protezione dei dati)

Nel 2018, il Data Protection Act ha sostituito un regolamento del 1998. Insieme al GDPR, dà forma al trattamento dei dati personali nel Regno Unito.

Come probabilmente già saprai, ha completamente cambiato il modo in cui trattiamo i dati personali nell'Unione Europea. Nonostante tutti i cambiamenti che derivano dalla Brexit, le aziende del Regno Unito devono comunque conformarsi al GDPR, poiché spesso elaborano i dati di altri clienti europei.

Alcune delle implicazioni relative all'IA che derivano dal GDPR includono:

  • Principio di equità - Questo obiettivo afferma che un'azienda può elaborare i dati del soggetto in linea con i propri interessi. I dati di input distorti sono un grosso problema nell'IA: lo tratteremo più avanti in modo più dettagliato, insieme a esempi pratici.
  • Limitazione delle finalità : l'utente deve avere accesso alle informazioni sul motivo per cui vengono raccolti i suoi dati. Poiché l'IA richiede grandi volumi di informazioni, devi far sapere al tuo pubblico cosa ne farai.
  • Trasparenza e accesso alle informazioni – I tuoi clienti hanno il diritto di accedere ai propri dati e chiederne la rimozione su richiesta. Questo è noto come diritto all'oblio .

La storia della Royal Free NHS Foundation Trust e di DeepMind, l'unità AI di Google, fa qui un esempio interessante. È noto che la collaborazione tra queste due parti ha violato le leggi sulla protezione dei dati del Regno Unito . L'ICO, l'autorità per la privacy dei dati del Regno Unito, ha scoperto che i pazienti non erano stati informati che i loro dati sarebbero stati utilizzati per lo sviluppo di una soluzione di intelligenza artificiale.

Anonimizzazione dei dati

Per utilizzare e condividere grandi volumi di dati senza infrangere la legge, devi prima renderli anonimi. Dati anonimi è un termine per descrivere informazioni che non si è in grado di collegare a un individuo vivente. Quando i dati vengono resi anonimi, il British Data Protection Act non si applica più.

Il processo di anonimizzazione richiede l'eliminazione di:

  • identificatori diretti , come il nome, l'e-mail o il numero di telefono
  • identificatori indiretti che potrebbero rivelare l'individuo mediante riferimenti incrociati, come il luogo di lavoro e l'ubicazione

Questa pratica aiuta a proteggere la privacy degli utenti, ma la rimozione degli identificatori è solo l'inizio del viaggio:

Problemi etici e pregiudizi

Sebbene il nome intelligenza artificiale possa suggerire il contrario, questa tecnologia non è immune da pregiudizi simili a quelli umani. Nel suo libro Tecnicamente sbagliato , Sara Wachter-Boettcher descrive una serie di casi in cui l'IA va, beh, terribilmente sbagliata.

L'autore dimostra che mentre l'intelligenza artificiale può essere abbastanza autonoma, è comunque basata su un qualche tipo di input, che non è esente da pregiudizi e dalle nostre ipotesi iniziali. Ad esempio, ha descritto il caso dell'algoritmo di Google Foto . L'obiettivo era rilevare cosa c'è nell'immagine, ma presentava una grave limitazione: considerava le persone di pelle bianca come predefinite. Per questo motivo, era probabile che etichettasse automaticamente i neri come... gorilla. Uno degli utenti ha scoperto che l'algoritmo li considerava scimmie in tutti gli album di Google Foto.

In questo caso, il problema risiede nei dati di input. La rete neurale si è allenata principalmente su modelli bianchi, motivo per cui non ha catturato le differenze razziali. Anche se l'algoritmo non era esplicitamente razzista, mostra comunque un apparente pregiudizio razziale.

Casi come questi dimostrano che, in parole povere, l'IA è ciò che facciamo. Lo alimentiamo con informazioni influenzate dai nostri pregiudizi e limiti. Wachter-Boettcher ha nominato una delle sezioni del suo libro Biased Input, Even More Biased Output . Questa breve frase descrive come l'IA può intensificare potenziali problemi etici.

Sfide legali

Come accennato, l'IA è autonoma, ma la domanda è: chi è responsabile del danno che può causare?

Quando si tratta di normative legali del Regno Unito, un sistema automatizzato (come un algoritmo AI) non è un agente di fronte alla legge. La responsabilità è nelle mani dei suoi creatori, come le parti interessate, gli operatori, i progettisti o i collaudatori del sistema.

La questione della responsabilità per i danni causati dall'IA è un tema caldo quando si tratta di introdurre nuovi prodotti, come le auto a guida autonoma. Il Parlamento europeo ha pubblicato una bozza di relazione con raccomandazioni in merito a un regime di responsabilità civile e alla sua idoneità all'IA.

Il Parlamento ha sottolineato che non è sempre possibile far risalire azioni specifiche a uno specifico input o progetto umano . Per questo motivo, suggeriscono che la responsabilità dovrebbe essere basata sul rischio e che gli operatori di sistemi di IA dovrebbero prendere in considerazione la possibilità di stipulare un'assicurazione di responsabilità civile.

Nei prossimi anni vedremo come le diverse giurisdizioni risponderanno ai prodotti di intelligenza artificiale al fine di garantire un'adeguata compensazione di eventuali danni.

Questioni legali di intelligenza artificiale: considerazioni finali

Ci auguriamo che questo riepilogo ti abbia aiutato a saperne di più sullo stato legale e sui problemi legali più comuni relativi all'IA nel Regno Unito .

In Miquido, lavoriamo con anni di esperienza nella creazione di soluzioni di intelligenza artificiale per il mercato del Regno Unito. Se desideri discutere di una soluzione basata sull'intelligenza artificiale adatta alle tue esigenze aziendali o semplicemente porre una domanda, non esitare a contattarci!

Un ringraziamento speciale a WKB – Wiercinsi, Kwiecinski, Baehr per i loro consigli e trucchi legali, che ci hanno aiutato a scrivere questo articolo!