人工智能的潛在法律問題(以及為什麼你應該關心)

已發表: 2022-05-07

多年來,我們一直對人工智能抱有遠大的夢想。 從 The Jetsons 向我們展示了狡猾的機器人女僕到夢想著電羊的機器人,再到醫院中機器人診斷的更現實的承諾,一段時間以來,我們一直在聽說對人類真正有用的現實 AI。

隨著我們進入一個在日常生活中看到越來越多人工智能的時代,我們必須開始研究這些新技術的法律影響。 人工智能是資產還是負債? 讓我們看看一些已經在醞釀中的問題。

人工智能法律問題

等等,什麼是人工智能?

機器人準備好接管世界了嗎? 是西里嗎? 是軍事機器人嗎? 是湯姆伺服和烏鴉嗎?

神秘科學劇院機器人說“你們想過聖誕節想要什麼嗎?”

打賭你以為我太年輕了,不能開這個玩笑,對吧? 開你的玩笑,這個節目在 Netflix 上!

AI或人工智能是機器“智能”的能力。 如果這聽起來非常廣泛,那是因為它是。 我們已經擁有我們認為“智能”的機器,因為它們能夠使用複雜的編程做出選擇和評估情況。

人工智能的概念通常與機器學習混為一談,即機器能夠在其原始編程的基礎上進行構建並“學習”。 實際上,我在本文中將這兩個術語混為一談,只是為了讓我的讀者更輕鬆。

在我的辯護中,至少我是故意的。

如果人工智能和機器學習讓機器人和計算機程序變得聰明、學習、成長和改變生物,那麼我們在什麼時候認為它們有足夠的意識來竊聽、充當“證人”或擁有自己的權利?

Alexa 被傳喚

我們都在打賭這會發生多長時間,不是嗎? 一個正在進行的法庭案件已將亞馬遜 Echo 家庭助理的默認名稱 Alexa 召集到了看台上。

好吧,好吧,不是字面意思。 但來自亞馬遜 Echo 的數據在謀殺調查中被傳喚。 這個想法是,如果 Alexa 正在聽,也許她聽到(並記錄了)一場真正的謀殺。 證據就像安全攝像頭一樣好,在證明犯罪方面比人類證人更好,只要亞馬遜願意提供情報。

不出所料,亞馬遜對沒收 Alexa 記錄信息所開創的先例並不感到興奮。 因此,他們正在與逮捕令作鬥爭,聲明與設備的通信屬於受保護的言論,並且交出錄音將開創一個可能導致侵犯 Echo 用戶隱私的先例。

Alexa 正在聽,以防你想知道我的意思。 Alexa 是 Amazon Echo 和 Echo Dot 的命令詞。 在命令之後,Echo 會接受所說的任何內容並遵循給定的請求。 但是首先要聽到命令詞,必須打開麥克風監聽。 亞馬遜向用戶保證,只有命令短語被發送到雲存儲,但這仍然讓我們知道 Alexa 一直在等待她的名字。

換句話說,亞歷克薩一直在,但她的名字讓她注意到了。 當你想到它時,這有點令人毛骨悚然,尤其是知道被動傾聽可能會讓 Alexa 偷聽謀殺案。

當你睡覺時它會聽到你的聲音

因此,如果 Amazon Echo 始終、始終在傾聽,這對隱私意味著什麼? 據亞馬遜稱,Echo不會保存或存儲任何未與觸發詞“Alexa”一起轉發的信息。 儘管如此,如果 Echo 處於開啟狀態,它仍具有聆聽的能力,這種能力可能會在以後開啟。

你對這個承諾的信任程度與你對亞馬遜的信任程度直接相關。 當他們說他們想保護用戶與 Alexa 的通信時,他們是為了用戶的利益,還是為了他們自己而保護它?

這是許多人對物聯網興起的最大擔憂之一。 從本質上講,“物聯網”是一個物理對象系統,它們相互連接以及互聯網,並且可以以我們認為“智能”的方式與用戶交互。 一些人認為互聯互通很棒,而另一些人則認為它是技術跳躍鯊魚和侵犯人類隱私。

有些人真的非常討厭物聯網(鏈接中的強語言)。 這是公平的,因為物聯網的興起增加了你家中跟踪、存儲和保存數據的物品數量,直到它們的母公司獲利或無聊的黑客決定在你的冰箱上運行 Doom

但是亞歷克薩呢? 她在這一切中沒有發言權嗎? 答案是也許。

尷尬的艾薩克·阿西莫夫時刻

如果你是像我這樣的超級書呆子,你可能已經熟悉科幻作家艾薩克·阿西莫夫的機器人三定律。 如果沒有(或者如果您想在不屈從於 Google 的情況下複習),則規則如下:

  1. 機器人不得傷害人類,或因不作為而讓人類受到傷害。
  2. 機器人必須服從人類的命令,除非這些命令與第一定律相衝突。
  3. 機器人必須保護自己的存在,只要這種保護不違反第一或第二定律

這些“法則”來自阿西莫夫的一個短篇小說,構成了他作品中大部分衝突的基礎。 在其簡單的優雅中,這些定律實際上已被現實生活中的機器人設計師使用和引用,這非常酷。

為軟件編程製定定律很容易,這實際上是所有阿西莫夫定律,但是當軟件開始與人交互時,事情很快就會變得混亂。 所以這裡有一個問題:如果機器人獲得自由意志,我們如何讓它們遵守這些規則?

大躍進? 並不真地。 這種特定的衝突是阿西莫夫許多作品背後的概念,以及許多科幻小說的一般寫作。 但實際上,法律體係將如何處理人工智能的人性?

至少一個模擬試驗已經提出了這個問題。

2004 年,在舊金山舉行了一場模擬審判,以確定 BINA48 的命運,這是一個由一家虛構公司擁有的虛構 AI,它可能已經成功獲得意識,也可能沒有。 在這個案例中,一個為 1000 名客服人員服務的機器人通過公司的通信發現它要被關閉。 該計劃聯繫了一名律師,尋求法律幫助以防止其“死亡”。

雖然這個概念感覺很未來,但誰能說這種情況所需的立法還沒有到位? 在這種情況下,有關生命支持患者權利的法律開始發揮作用,有趣地提醒人們,看似表面價值的法律有一天可能需要涵蓋的各種情況。

一些出版物甚至暗示以人工智能為中心的法庭案件可能很快成為民權問題

總而言之,這仍然是未來的問題。 然而,人工智能的權利和責任在成為問題之前是需要考慮的。

您預見到哪些人工智能法律問題?

您是否擔心 Siri 和 Alexa 以及未來類似它們的程序的權利? 還是您認為他們只是母公司的電子間諜? 也許你只是對他們可能幫助未來律師收集的證據感到興奮。 無論答案是什麼,很明顯人工智能伴隨著一系列固有的法律問題。

在下面的評論中告訴我你的想法。 訂閱我的郵件列表以獲取更多法律技術新聞和評論,並查看這些文章以獲取更多內容,例如:

  • 2017 年 15 大法律營銷統計數據更多關於法律科技未來的信息
  • 法律諮詢應用程序:有用的工具還是聊天框殭屍? 了解 AI 的實際應用
  • 為什麼每個法律部門都應該使用數字簽名如果您想知道技術還能如何幫助您的公司