人工智能:英國的法律問題

已發表: 2020-07-16

英國是歐洲人工智能領域的領導者之一,尤其是在醫療保健領域。 根據麥肯錫全球研究所的數據,人工智能可以在 10 年內推動英國經濟增長 22%。

如果你在英國開發一家基於人工智能的初創公司或任何類型的人工智能產品,那麼你將比歐洲其他國家處於更好的位置。 該國對創新特別開放,政府熱切支持許多舉措。 例如,艾倫圖靈研究所是人工智能和數據科學的國家實體,而上議院也有自己的人工智能委員會。

這種數據驅動的文化使英國成為重要的人工智能中心。 Coadec 的一份報告表明,每週都有一家新的人工智能初創公司在該國成立。 不過,在開始之前,您應該首先考慮一些事情:法律要求和最常見的 AI 相關法律問題

由於人工智能是一個新興的發展領域,它的要求與其他更傳統的行業略有不同。 如果您正在尋求法律建議,我們隨時為您提供幫助。

以下是需要考慮的一些最重要的人工智能法律問題:

人工智能的法律定義

首先,你如何定義人工智能?

這是問題開始的地方。 一些立法者堅持這種啟發式並將人工智能定義為軟件和數據的組合。 這聽起來很簡單,但需要指出的是,我們正在處理比以往任何時候都更複雜的軟件和更大的數據量。

其他法律專業人士,如歌德大學的 Jonas Schuett 建議最好避免使用人工智能這個詞。 他說,沒有符合法律定義要求的人工智能定義。 相反,他建議專注於:

  • 某些設計
  • 用例
  • 考慮到潛在風險的能力

這些建議主要是針對政策制定者的,但它們也可以作為自己的指導方針。 為了做到正確,最好關注人工智能使用的具體案例以及隨之而來的風險。

人工智能圖標

使用基於 AI 的解決方案增強您的產品

學到更多

英國人工智能的定義

談到人工智能法律定義,英國政府是這樣描述的:

[…] 能夠執行原本需要人類智能的任務的技術,例如視覺感知、語音識別和語言翻譯。

英國議會最近在這個定義中增加了另一個方面。 值得注意的是,人工智能係統具有學習或適應新體驗或刺激的能力。

人工智能的關鍵法律問題

處理大量數據

為了正常工作,人工智能算法需要大量數據。 另一個人工智能法律問題來了:誰擁有數據,誰負責安全? 對於銀行或醫療保健等行業的敏感信息,情況變得更加複雜。

目前在英國生效的主要數據安全法案有兩種:

數據保護法和 GDPR(通用數據保護條例)

2018 年,《數據保護法》取代了 1998 年的法規。它與 GDPR 一起塑造了英國個人數據的處理方式。

您可能已經知道,它徹底改變了我們在歐盟處理個人數據的方式。 儘管英國脫歐帶來了所有變化,但英國企業仍然需要遵守 GDPR,因為他們經常處理其他歐洲客戶的數據。

GDPR 附帶的一些與 AI 相關的影響包括:

  • 公平原則——該目標聲稱企業可以根據自己的利益處理​​主體的數據。 有偏差的輸入數據是 AI 中的一個大問題——我們將在稍後更詳細地介紹這一點,並附上動手示例。
  • 目的限制——用戶必須有權訪問有關您收集其數據的原因的信息。 由於 AI 需要大量信息,因此您需要讓您的受眾知道您將如何處理它。
  • 透明度和信息訪問權——您的客戶有權訪問他們的數據並根據要求要求將其刪除。 這被稱為被遺忘權

Royal Free NHS Foundation Trust 和 Google 的 AI 部門 DeepMind 的故事就是一個有趣的例子。 眾所周知,這兩方之間的合作違反了英國數據保護法 英國數據隱私機構 ICO 發現,患者沒有被告知他們的數據將用於開發人工智能解決方案。

數據匿名化

要在不違法的情況下使用和共享大量數據,您需要先將其匿名化。 匿名數據 是一個術語,用於描述一個人無法鏈接到一個活生生的個體的信息。 當數據匿名時,英國數據保護法不再適用。

匿名化過程需要擺脫:

  • 直接標識符,例如姓名、電子郵件或電話號碼
  • 可以通過交叉引用揭示個人的間接標識符,例如工作場所和位置

這種做法有助於保護用戶的隱私,但刪除標識符只是旅程的開始:

倫理問題和偏見

儘管人工智能的名稱可能暗示其他方面,但這項技術也不能免於類似人類的偏見。 Sara Wachter-Boettcher 在她的書Technically Wrong中描述了一系列 AI 出現嚴重錯誤的案例。

作者證明,雖然人工智能可以非常自主,但它仍然基於某種輸入,這並非沒有偏見和我們最初的假設。 例如,她描述了Google Photos 算法的案例。 目標是檢測圖片中的內容,但它有一個嚴重的限制——它將白皮膚的人視為默認設置。 因此,它很可能會自動將黑人標記為……大猩猩。 其中一位用戶發現,該算法認為他們是所有 Google 相冊相冊中的猿類。

在這種情況下,問題在於輸入數據。 神經網絡主要在白人模型上訓練,這就是它沒有捕捉到種族差異的原因。 即使該算法不是明確的種族主義者,它仍然顯示出明顯的種族偏見。

像這樣的案例證明,用外行的話來說,人工智能就是我們創造的。 我們向它提供受我們自己的偏見和限制影響的信息。 Wachter-Boettcher 將她的著作Biased Input, Even More Biased Output中的一個部分命名為。 這個簡短的句子描述了人工智能如何加劇潛在的道德問題。

法律挑戰

正如我們所提到的,人工智能是自主的,但問題是:誰應對它可能造成的損害負責?

談到英國的法律法規,自動化系統(例如人工智能算法)在法律面前並不是代理人。 責任在它的創造者手中,例如利益相關者、操作者、設計者或系統的測試者。

在引入自動駕駛汽車等新產品時,人工智能造成的損害的責任問題是一個熱門話題。 歐洲議會發布了一份報告草案,其中就民事責任制度及其對人工智能的適用性提出了建議。

議會強調,並不總是可以將具體行動追溯到具體的人工輸入或設計。 因此,他們建議責任應基於風險,人工智能係統的部署者應考慮持有責任保險。

在接下來的幾年裡,我們將看到不同的司法管轄區將如何應對人工智能產品,以確保對任何損害進行適當的賠償。

人工智能的法律問題:最後的思考

我們希望這份摘要能夠幫助您更多地了解英國的法律地位和最常見的 AI 法律問題

在 Miquido,我們擁有多年為英國市場創建 AI 解決方案的經驗。 如果您想討論適合您業務需求的基於 AI 的解決方案,或者只是提出問題,請隨時與我們聯繫!

特別感謝 WKB – Wiercinsi、Kwiecinski、Baehr 提供的法律提示和技巧,幫助我們撰寫本文!