Inteligența artificială: probleme juridice în Marea Britanie
Publicat: 2020-07-16Regatul Unit este unul dintre liderii europeni în inteligența artificială, în special în sectorul sănătății. Potrivit McKinsey Global Institute, AI poate stimula economia Marii Britanii cu 22% în decurs de 10 ani.
Dacă dezvoltați o pornire bazată pe inteligență artificială sau orice fel de produs bazat pe inteligență artificială în Marea Britanie, vă aflați într-o poziție mai bună decât restul Europei. Țara este deosebit de deschisă către inovare , iar guvernul sprijină cu fermitate multe inițiative. De exemplu, Institutul Alan Turing servește ca entitate națională pentru inteligența artificială și știința datelor, în timp ce Camera Lorzilor are, de asemenea, propriul său comitet axat pe inteligență artificială.
Această cultură bazată pe date face din Marea Britanie un centru important de inteligență artificială. Un raport al Coadec sugerează că în fiecare săptămână se înființează un nou startup AI în țară. Înainte de a începe, totuși, există ceva de care ar trebui să luați în considerare mai întâi: cerințele legale și cele mai frecvente probleme juridice legate de IA .
Întrucât AI este un domeniu nou și în curs de dezvoltare, are cerințe ușor diferite față de alte industrii mai tradiționale. Dacă cauți consiliere juridică, suntem aici pentru a începe.
Iată câteva dintre cele mai importante probleme juridice de AI pe care trebuie să le luați în considerare:
Definiția legală a IA
În primul rând, cum definiți chiar inteligența artificială?
De aici începe problema. Unii legiuitori țin de această euristică și definesc AI ca o combinație de software și date . Sună destul de simplu, dar trebuie subliniat că avem de-a face cu software mai sofisticat și cu volume de date mai mari decât oricând.
Alți profesioniști din domeniul dreptului, cum ar fi Jonas Schuett de la Universitatea Goethe, sugerează că este mai bine să eviți termenul de inteligență artificială . El spune că nu există o definiție a IA care să îndeplinească cerințele pentru definițiile legale . În schimb, el sugerează să se concentreze pe:
- anumite modele
- cazuri de utilizare
- capabilități având în vedere posibilele riscuri
Aceste sugestii se adresează în principal factorilor de decizie politică, dar ele pot, de asemenea, să salveze ca ghid pentru dvs. Pentru a face lucrurile corect, cel mai bine este să vă concentrați asupra cazului foarte specific de utilizare a AI și a riscurilor asociate cu aceasta.
Îmbunătățiți-vă produsul cu soluții bazate pe inteligență artificială
Află mai multeDefiniția AI în Regatul Unit
Când vine vorba de definiția legală a inteligenței artificiale , iată cum o descrie guvernul Regatului Unit:
[…] tehnologii cu capacitatea de a îndeplini sarcini care altfel ar necesita inteligență umană, cum ar fi percepția vizuală, recunoașterea vorbirii și traducerea limbii.
Parlamentul britanic a adăugat recent un alt aspect acestei definiții. Este important de menționat că sistemele AI au capacitatea de a învăța sau de a se adapta la noi experiențe sau stimuli.
Problemele juridice cheie ale AI
Prelucrarea unor cantități mari de date
Pentru a funcționa corect, algoritmii de inteligență artificială au nevoie de multe date. Și aici intervine o altă problemă juridică AI: cine deține datele și cine se ocupă de securitate? Devine și mai complicat cu informațiile sensibile din sectoare precum bancar sau asistență medicală.
Există două acte principale de securitate a datelor în vigoare în prezent în Marea Britanie:
Legea privind protecția datelor și GDPR (Regulamentul general privind protecția datelor)
În 2018, Legea privind protecția datelor a înlocuit un regulament din 1998. Împreună cu GDPR, modelează prelucrarea datelor cu caracter personal în Marea Britanie.
După cum probabil știți deja, a schimbat complet modul în care tratăm datele personale în Uniunea Europeană. Chiar și în ciuda tuturor schimbărilor care vin odată cu Brexit, companiile din Marea Britanie trebuie în continuare să respecte GDPR, deoarece procesează adesea datele altor clienți europeni.
Unele dintre implicațiile legate de inteligența artificială care vin cu GDPR includ:

- Principiul echității – Acest obiectiv susține că o afacere poate prelucra datele subiectului în conformitate cu interesele acestuia. Datele de intrare părtinitoare sunt o problemă uriașă în AI – vom trata acest lucru mai târziu în detaliu, împreună cu exemple practice.
- Limitarea scopului – Utilizatorul trebuie să aibă acces la informațiile despre motivul pentru care colectați datele sale. Deoarece AI necesită volume mari de informații, trebuie să anunțați publicul ce veți face cu ea.
- Transparență și acces la informații – Clienții dvs. au dreptul de a-și accesa datele și de a cere să le elimine la cerere. Acest lucru este cunoscut sub numele de dreptul de a fi uitat .
Povestea Royal Free NHS Foundation Trust și DeepMind, unitatea AI a Google, reprezintă un exemplu interesant aici. Se știe că colaborarea dintre aceste două părți a încălcat legile privind protecția datelor din Regatul Unit . ICO, autoritatea de confidențialitate a datelor din Marea Britanie, a aflat că pacienții nu au fost informați că datele lor vor fi folosite pentru dezvoltarea unei soluții AI.
Anonimizarea datelor
Pentru a utiliza și a partaja volume mari de date fără a încălca legea, trebuie mai întâi să le anonimizați. Date anonimizate este un termen pentru a descrie informații pe care nu le puteți lega la un individ viu. Când datele sunt anonimizate, Legea britanică privind protecția datelor nu se mai aplică.
Procesul de anonimizare necesită eliminarea:
- identificatori direcți , cum ar fi numele, e-mailul sau numărul de telefon
- identificatori indirecti care ar putea dezvălui individul prin referințe încrucișate, cum ar fi locul de muncă și locația
Această practică ajută la protejarea confidențialității utilizatorilor, dar eliminarea identificatorilor este doar începutul călătoriei:
Probleme etice și părtiniri
Deși denumirea de inteligență artificială poate sugera altfel, această tehnologie nu este imună la părtinirile umane. În cartea ei Technically Wrong , Sara Wachter-Boettcher descrie o serie de cazuri în care AI merge, ei bine, teribil de greșit.
Autorul demonstrează că, deși inteligența artificială poate fi destul de autonomă, se bazează totuși pe un fel de input, care nu este lipsit de părtiniri și de ipotezele noastre inițiale. De exemplu, ea a descris cazul algoritmului Google Foto . Scopul a fost de a detecta ceea ce este în imagine, dar a venit cu o limitare serioasă - considera persoanele cu pielea albă ca implicite. Din această cauză, era probabil să eticheteze automat oamenii de culoare drept... gorile. Unul dintre utilizatori a aflat că algoritmul le considera a fi maimuțe în toate albumele Google Foto.
În acest caz, problema constă în datele de intrare. Rețeaua neuronală s-a antrenat în principal pe modele albe, motiv pentru care nu a prins diferențele rasiale. Chiar dacă algoritmul nu a fost în mod explicit rasist, afișează totuși o părtinire rasială aparentă.
Cazuri ca acestea demonstrează că, în cuvintele profanelor, AI este ceea ce o facem. Îl hrănim cu informații afectate de propriile noastre părtiniri și limitări. Wachter-Boettcher a numit una dintre secțiunile cărții ei Biased Input, Even More Biased Output . Această scurtă propoziție descrie modul în care AI poate intensifica potențialele probleme etice.
Provocări juridice
După cum am menționat, IA este autonomă, dar întrebarea este: cine este responsabil pentru daunele pe care le poate provoca?
Când vine vorba de reglementările legale din Regatul Unit, un sistem automat (cum ar fi un algoritm AI) nu este un agent în fața legii. Responsabilitatea stă în mâinile creatorilor săi, cum ar fi părțile interesate, operatorii, proiectanții sau testatorii sistemului.
Problema răspunderii pentru daunele cauzate de IA este un subiect fierbinte atunci când vine vorba de introducerea de noi produse, cum ar fi mașinile autonome. Parlamentul European a emis un proiect de raport cu recomandări privind un regim de răspundere civilă și adecvarea acestuia pentru IA.
Parlamentul a subliniat că nu este întotdeauna posibil să se urmărească anumite acțiuni până la o anumită contribuție umană sau design . Din acest motiv, ei sugerează că răspunderea ar trebui să se bazeze pe risc și că implementatorii de sisteme AI ar trebui să ia în considerare asigurarea de răspundere civilă.
În următorii ani, vom vedea cum vor răspunde diferite jurisdicții la produsele AI pentru a asigura o compensare adecvată a oricărui prejudiciu.
Probleme juridice ale inteligenței artificiale: gânduri finale
Sperăm că acest rezumat v-a ajutat să aflați mai multe despre statutul juridic și despre cele mai frecvente probleme juridice legate de inteligența artificială din Regatul Unit .
La Miquido, lucrăm cu ani de experiență în crearea de soluții AI pentru piața din Marea Britanie. Dacă doriți să discutați despre o soluție bazată pe inteligență artificială care se va potrivi nevoilor dvs. de afaceri sau pur și simplu să puneți o întrebare, nu ezitați să ne contactați!
Mulțumiri speciale WKB – Wiercinsi, Kwiecinski, Baehr pentru sfaturile și trucurile lor legale, care ne-au ajutat să scriem acest articol!