Sztuczna inteligencja: problemy prawne w Wielkiej Brytanii

Opublikowany: 2020-07-16

Wielka Brytania jest jednym z europejskich liderów sztucznej inteligencji, zwłaszcza w sektorze opieki zdrowotnej. Według McKinsey Global Institute sztuczna inteligencja może zwiększyć brytyjską gospodarkę o 22% w ciągu 10 lat.

Jeśli tworzysz startup oparty na sztucznej inteligencji lub jakikolwiek produkt oparty na sztucznej inteligencji w Wielkiej Brytanii, jesteś w lepszej sytuacji niż reszta Europy. Kraj jest szczególnie otwarty na innowacje , a rząd chętnie wspiera wiele inicjatyw. Na przykład Instytut Alana Turinga służy jako krajowa jednostka zajmująca się sztuczną inteligencją i nauką o danych, podczas gdy Izba Lordów ma również własny komitet zajmujący się sztuczną inteligencją.

Ta oparta na danych kultura sprawia, że ​​Wielka Brytania jest ważnym ośrodkiem sztucznej inteligencji. Z raportu Coadec wynika, że ​​co tydzień w kraju powstaje nowy startup AI. Zanim jednak zaczniesz, musisz najpierw rozważyć coś: wymagania prawne i najczęstsze problemy prawne związane ze sztuczną inteligencją .

Ponieważ sztuczna inteligencja jest nową i rozwijającą się dziedziną, ma nieco inne wymagania niż inne, bardziej tradycyjne branże. Jeśli szukasz porady prawnej, pomożemy Ci zacząć.

Oto niektóre z najważniejszych kwestii prawnych dotyczących sztucznej inteligencji, które należy wziąć pod uwagę:

Prawna definicja AI

Po pierwsze, jak w ogóle definiujesz sztuczną inteligencję?

Tu zaczyna się problem. Niektórzy prawodawcy trzymają się tej heurystyki i definiują sztuczną inteligencję jako kombinację oprogramowania i danych . Brzmi to dość prosto, ale trzeba zaznaczyć, że mamy do czynienia z bardziej wyrafinowanym oprogramowaniem i większymi wolumenami danych niż kiedykolwiek wcześniej.

Inni prawnicy, tacy jak Jonas Schuett z Uniwersytetu Goethego, sugerują, że lepiej unikać określenia „ sztuczna inteligencja ”. Twierdzi, że nie ma definicji sztucznej inteligencji, która spełniałaby wymogi definicji prawnych . Zamiast tego sugeruje skupienie się na:

  • niektóre projekty
  • przypadków użycia
  • możliwości z uwzględnieniem możliwych zagrożeń

Propozycje te adresowane są głównie do decydentów, ale można je również zapisać jako wskazówkę dla siebie. Aby to zrobić dobrze, najlepiej skoncentrować się na bardzo konkretnym przypadku użycia sztucznej inteligencji i związanym z tym ryzykiem.

Ikona AI

Wzbogać swój produkt o rozwiązania oparte na sztucznej inteligencji

Ucz się więcej

Definicja sztucznej inteligencji w Wielkiej Brytanii

Jeśli chodzi o prawną definicję sztucznej inteligencji , rząd Wielkiej Brytanii opisuje ją następująco:

[…] technologie zdolne do wykonywania zadań, które w innym przypadku wymagałyby ludzkiej inteligencji, takie jak percepcja wzrokowa, rozpoznawanie mowy i tłumaczenie języka.

Niedawno brytyjski parlament dodał do tej definicji kolejny aspekt. Należy zauważyć, że systemy sztucznej inteligencji mają zdolność uczenia się lub dostosowywania się do nowych doświadczeń lub bodźców.

Kluczowe kwestie prawne AI

Przetwarzanie dużych ilości danych

Algorytmy sztucznej inteligencji do poprawnego działania potrzebują dużej ilości danych. I tu pojawia się kolejna kwestia prawna AI: kto jest właścicielem danych i kto dba o bezpieczeństwo? Sprawa staje się jeszcze bardziej skomplikowana w przypadku poufnych informacji w sektorach takich jak bankowość czy opieka zdrowotna.

Obecnie w Wielkiej Brytanii obowiązują dwie główne ustawy o bezpieczeństwie danych:

Ustawa o ochronie danych i RODO (ogólne rozporządzenie o ochronie danych)

W 2018 r. ustawa o ochronie danych zastąpiła rozporządzenie z 1998 r. Wraz z RODO kształtuje przetwarzanie danych osobowych w Wielkiej Brytanii.

Jak zapewne już wiesz, całkowicie zmieniło to sposób, w jaki postępujemy z danymi osobowymi w Unii Europejskiej. Nawet pomimo wszystkich zmian związanych z Brexitem, brytyjskie firmy nadal muszą przestrzegać RODO, ponieważ często przetwarzają dane innych europejskich klientów.

Niektóre konsekwencje związane ze sztuczną inteligencją związane z RODO obejmują:

  • Zasada rzetelności – ten cel twierdzi, że firma może przetwarzać dane podmiotu zgodnie z jego interesami. Stronnicze dane wejściowe to ogromny problem w sztucznej inteligencji – omówimy to później bardziej szczegółowo, wraz z praktycznymi przykładami.
  • Ograniczenie celu – Użytkownik musi mieć dostęp do informacji o celu zbierania jego danych. Ponieważ sztuczna inteligencja wymaga dużej ilości informacji, musisz poinformować odbiorców, co zamierzasz z nią zrobić.
  • Przejrzystość i dostęp do informacji – Twoi klienci mają prawo dostępu do swoich danych i żądania ich usunięcia na żądanie. Jest to znane jako prawo do bycia zapomnianym .

Ciekawym przykładem jest historia Royal Free NHS Foundation Trust i DeepMind, jednostki AI Google. Wiadomo, że współpraca między tymi dwiema stronami naruszyła brytyjskie przepisy o ochronie danych . ICO, brytyjski organ ds. prywatności danych, dowiedział się, że pacjenci nie zostali poinformowani, że ich dane zostaną wykorzystane do opracowania rozwiązania AI.

Anonimizacja danych

Aby używać i udostępniać duże ilości danych bez łamania prawa, musisz je najpierw zanonimizować. Dane zanonimizowane to termin opisujący informacje, których nie można powiązać z żywą osobą. W przypadku anonimizacji danych brytyjska ustawa o ochronie danych nie ma już zastosowania.

Proces anonimizacji wymaga pozbycia się:

  • bezpośrednie identyfikatory , takie jak imię i nazwisko, adres e-mail lub numer telefonu
  • identyfikatory pośrednie , które mogą ujawnić osobę poprzez odniesienie, takie jak miejsce pracy i lokalizacja

Ta praktyka pomaga chronić prywatność użytkowników, ale usunięcie identyfikatorów to dopiero początek podróży:

Kwestie etyczne i uprzedzenia

Chociaż nazwa sztuczna inteligencja może sugerować coś innego, ta technologia nie jest odporna na uprzedzenia podobne do ludzkich. W swojej książce Technically Wrong Sara Wachter-Boettcher opisuje szereg przypadków, w których sztuczna inteligencja idzie, no cóż, strasznie źle.

Autor udowadnia, że ​​choć sztuczna inteligencja może być dość autonomiczna, to jednak opiera się na pewnym rodzaju danych wejściowych, które nie są wolne od uprzedzeń i naszych początkowych założeń. Opisała na przykład przypadek algorytmu Zdjęć Google . Celem było wykrycie tego, co znajduje się na zdjęciu, ale miało jedno poważne ograniczenie – jako domyślne uważano osoby o białej skórze. Z tego powodu prawdopodobnie automatycznie oznaczy czarnych ludzi jako… goryle. Jeden z użytkowników dowiedział się, że algorytm uznał je za małpy we wszystkich albumach Zdjęć Google.

W tym przypadku problem tkwi w danych wejściowych. Sieć neuronowa trenowała głównie na białych modelach, dlatego nie wyłapała różnic rasowych. Chociaż algorytm nie był wyraźnie rasistowski, nadal wykazuje wyraźne uprzedzenia rasowe.

Przypadki takie jak te dowodzą, że według laika, sztuczna inteligencja jest tym, co robimy. Karmimy go informacjami, na które wpływają nasze własne uprzedzenia i ograniczenia. Wachter-Boettcher wymieniła jeden z rozdziałów swojej książki Biased Input, Even More Biased Output . To krótkie zdanie opisuje, w jaki sposób sztuczna inteligencja może zintensyfikować potencjalne problemy etyczne.

Wyzwania prawne

Jak wspomnieliśmy, sztuczna inteligencja jest autonomiczna, ale pytanie brzmi: kto jest odpowiedzialny za szkody, jakie może wyrządzić?

Jeśli chodzi o regulacje prawne Wielkiej Brytanii, zautomatyzowany system (taki jak algorytm AI) nie jest agentem wobec prawa. Odpowiedzialność spoczywa w rękach jego twórców, takich jak interesariusze, operatorzy, projektanci czy testerzy systemu.

Kwestia odpowiedzialności za szkody spowodowane przez sztuczną inteligencję to gorący temat, jeśli chodzi o wprowadzanie nowych produktów, takich jak samochody autonomiczne. Parlament Europejski wydał projekt sprawozdania z zaleceniami dotyczącymi systemu odpowiedzialności cywilnej i jego przydatności dla sztucznej inteligencji.

Parlament podkreślił , że nie zawsze można prześledzić konkretne działania z powrotem do konkretnego wkładu człowieka lub projektu . Z tego powodu sugerują, że odpowiedzialność powinna być oparta na ryzyku, a wdrażający systemy sztucznej inteligencji powinni rozważyć posiadanie ubezpieczenia od odpowiedzialności.

W nadchodzących latach zobaczymy, jak różne jurysdykcje zareagują na produkty AI, aby zapewnić odpowiednią rekompensatę za wszelkie szkody.

Zagadnienia prawne sztucznej inteligencji: przemyślenia końcowe

Mamy nadzieję, że to podsumowanie pomogło Ci dowiedzieć się więcej o statusie prawnym i najczęstszych kwestiach prawnych dotyczących sztucznej inteligencji w Wielkiej Brytanii .

W Miquido pracujemy z wieloletnim doświadczeniem w tworzeniu rozwiązań AI na rynek brytyjski. Jeśli chcesz omówić rozwiązanie oparte na sztucznej inteligencji, które będzie odpowiadać Twoim potrzebom biznesowym, lub po prostu zadać pytanie, nie wahaj się z nami skontaktować!

Specjalne podziękowania dla WKB – Wiercinsi, Kwiecinski, Baehr za porady i wskazówki prawne, pomagające nam w napisaniu tego artykułu!