인공 지능: 영국의 법적 문제

게시 됨: 2020-07-16

영국은 특히 의료 부문에서 인공 지능 분야의 유럽 리더 중 하나입니다. McKinsey Global Institute에 따르면 AI는 10년 이내에 영국 경제를 22%까지 끌어올릴 수 있습니다.

영국에서 AI 기반 스타트업이나 AI 기반 제품을 개발하고 있다면 유럽의 다른 지역보다 더 나은 위치에 있습니다. 이 나라는 특히 혁신에 개방적 이며 정부는 많은 이니셔티브를 적극 지원합니다. 예를 들어, Alan Turing Institute는 인공 지능 및 데이터 과학을 위한 국가 기관의 역할을 하는 반면 상원에는 자체 AI 중심 위원회가 있습니다.

이러한 데이터 중심 문화는 영국을 중요한 인공 지능 허브로 만듭니다. Coadec의 보고서에 따르면 매주 새로운 AI 스타트업이 미국에서 설립됩니다. 하지만 시작하기 전에 먼저 고려해야 할 사항이 있습니다. 법적 요구 사항 및 가장 일반적인 AI 관련 법적 문제 입니다.

AI는 새롭고 발전하는 분야이기 때문에 다른 전통적인 산업과 약간 다른 요구 사항을 가지고 있습니다. 법적 조언을 찾고 계시다면 저희가 도와드리겠습니다.

고려해야 할 가장 중요한 AI 법적 문제는 다음과 같습니다.

AI의 법적 정의

우선, 인공 지능을 어떻게 정의합니까?

여기에서 문제가 시작됩니다. 일부 의원들은 이러한 경험적 방법을 고수하고 AI 를 소프트웨어와 데이터의 조합으로 정의합니다. 아주 간단하게 들리지만 우리는 그 어느 때보다 더 정교한 소프트웨어와 더 큰 데이터 볼륨을 다루고 있다는 점을 지적해야 합니다.

Goethe University의 Jonas Schuett와 같은 다른 법률 전문가들은 인공 지능 이라는 용어를 사용하지 않는 것이 좋습니다. 그는 법적 정의에 대한 요구 사항을 충족하는 AI에 대한 정의가 없다고 말합니다. 대신 그는 다음 사항에 중점을 둘 것을 제안합니다.

  • 특정 디자인
  • 사용 사례
  • 가능한 위험을 염두에 둔 기능

이러한 제안은 주로 정책 입안자를 대상으로 하지만 자신을 위한 지침으로 저장할 수도 있습니다. 올바르게 이해하려면 AI 사용의 매우 구체적인 사례와 그에 따른 위험에 초점을 맞추는 것이 가장 좋습니다.

AI 아이콘

AI 기반 솔루션으로 제품 향상

더 알아보기

영국에서 AI의 정의

인공 지능법적 정의 와 관련하여 영국 정부는 다음과 같이 설명합니다.

[… ] 시각적 인식, 음성 인식 및 언어 번역과 같은 인간 지능이 필요한 작업을 수행할 수 있는 기술.

영국 의회는 최근 이 정의에 또 다른 측면을 추가했습니다. AI 시스템에는 새로운 경험이나 자극을 학습하거나 적응할 수 있는 능력이 있다는 점에 유의하는 것이 중요합니다.

AI의 주요 법적 문제

대용량 데이터 처리

인공 지능 알고리즘이 제대로 작동하려면 많은 데이터가 필요합니다. 그리고 여기에 또 다른 AI 법적 문제가 있습니다. 누가 데이터를 소유하고 누가 보안을 관리합니까? 은행이나 의료와 같은 부문의 민감한 정보는 더욱 복잡해집니다.

현재 영국에서는 두 가지 주요 데이터 보안법이 시행되고 있습니다.

데이터 보호법 및 GDPR(일반 데이터 보호 규정)

2018년에 데이터 보호법이 1998년의 규정을 대체했습니다. GDPR과 함께 영국의 개인 데이터 처리를 구체화합니다.

이미 알고 계시겠지만, 유럽 연합에서 개인 데이터를 처리하는 방식이 완전히 바뀌었습니다. Brexit으로 인한 모든 변화에도 불구하고 영국 기업은 다른 유럽 고객의 데이터를 종종 처리하기 때문에 여전히 GDPR을 준수해야 합니다.

GDPR과 함께 제공되는 AI 관련 영향은 다음과 같습니다.

  • 공정성 원칙 – 이 목표는 기업이 자신의 이익에 따라 주체의 데이터를 처리할 수 있다고 주장합니다. 편향된 입력 데이터는 AI에서 큰 문제입니다. 나중에 실습 예제와 함께 더 자세히 다룰 것입니다.
  • 목적 제한 – 사용자는 데이터를 수집하는 이유에 대한 정보에 액세스할 수 있어야 합니다. AI는 많은 양의 정보를 필요로 하므로 청중에게 AI로 무엇을 할 것인지 알려야 합니다.
  • 정보에 대한 투명성 및 액세스 – 고객은 데이터에 액세스하고 요청 시 삭제를 요청할 권리가 있습니다. 이것은 잊혀질 권리로 알려져 있습니다 .

Royal Free NHS Foundation Trust와 Google의 AI 부서인 DeepMind의 이야기는 여기에서 흥미로운 예를 보여줍니다. 이 두 당사자 간의 협력은 영국 데이터 보호법을 위반한 것으로 알려져 있습니다 . 영국의 데이터 프라이버시 기관인 ICO는 환자들이 자신의 데이터가 AI 솔루션 개발에 사용될 것이라는 정보를 받지 못했다는 사실을 발견했습니다.

데이터 익명화

법을 위반하지 않고 대용량 데이터를 사용하고 공유하려면 먼저 이를 익명화해야 합니다. 익명 데이터 살아있는 개인과 연결할 수 없는 정보를 설명하는 용어입니다. 데이터가 익명화되면 영국 데이터 보호법이 더 이상 적용되지 않습니다.

익명화 프로세스는 다음을 제거해야 합니다.

  • 이름, 이메일 또는 전화번호와 같은 직접적인 식별자
  • 직장 및 위치와 같이 상호 참조를 통해 개인을 드러낼 수 있는 간접 식별자

이 방법은 사용자의 개인 정보를 보호하는 데 도움이 되지만 식별자를 제거하는 것은 여정의 시작일 뿐입니다.

윤리적 문제 및 편견

인공 지능 이라는 이름이 달리 암시할 수 있지만 이 기술은 인간과 같은 편견에 영향을 받지 않습니다. Sara Wachter-Boettcher는 자신의 저서 Technically Wrong 에서 AI가 잘못되고 있는 다양한 사례를 설명합니다.

저자는 인공 지능이 상당히 자율적일 수 있지만 여전히 어떤 종류의 입력을 기반으로 하며 편견과 초기 가정에서 자유롭지 않다는 것을 증명합니다. 예를 들어, 그녀는 Google 포토 알고리즘 의 경우를 설명했습니다. 목표는 사진에 있는 것을 감지하는 것이지만 한 가지 심각한 제한이 있었습니다. 즉, 백인 피부를 기본값으로 간주하는 것이었습니다. 그 때문에 흑인을 자동으로 고릴라로 태그 지정했을 가능성이 큽니다. 사용자 중 한 명이 알고리즘이 모든 Google 포토 앨범에서 자신을 원숭이로 간주한다는 사실을 알게 되었습니다.

이 경우 문제는 입력 데이터에 있습니다. 신경망은 주로 백인 모델에 대해 교육을 받았기 때문에 인종적 차이를 포착하지 못했습니다. 알고리즘이 명시적으로 인종 차별적이지는 않았지만 여전히 명백한 인종 편견을 보여줍니다.

이러한 사례는 일반인의 말로 AI가 우리가 만드는 것임을 증명합니다. 우리는 우리 자신의 편견과 한계에 영향을 받는 정보를 제공합니다. Wachter-Boettcher는 그녀의 책 Biased Input, Even More Biased Output 의 섹션 중 하나를 명명했습니다. 이 짧은 문장은 AI가 잠재적인 윤리적 문제를 강화할 수 있는 방법을 설명합니다.

법적 문제

우리가 언급했듯이 AI는 자율적이지만 문제는 이것이 야기할 수 있는 피해에 대한 책임은 누구에게 있습니까?

영국의 법적 규제와 관련하여 자동화된 시스템(예: AI 알고리즘)은 법 앞에서 대리인이 아닙니다. 책임은 이해 관계자, 운영자, 설계자 또는 시스템 테스터와 같은 작성자의 손에 있습니다.

AI로 인한 피해에 대한 책임 문제는 자율주행차 등 신제품 출시에 있어 화두다. 유럽 ​​의회는 민사 책임 제도와 AI에 대한 적합성에 관한 권고 사항이 포함된 보고서 초안을 발행했습니다.

의회는 특정 행동을 특정 인간의 입력이나 설계로 거슬러 올라가는 것이 항상 가능한 것은 아니라는 점을 강조했습니다. 그 때문에 그들은 책임이 위험을 기반으로 해야 하고 AI 시스템 배포자가 책임 보험을 보유하는 것을 고려해야 한다고 제안합니다.

앞으로 몇 년 동안 우리는 피해에 대한 적절한 보상을 보장하기 위해 다양한 관할 구역이 AI 제품에 어떻게 대응할지 볼 것입니다.

인공 지능의 법적 문제: 최종 생각

이 요약이 영국에서 법적 지위와 가장 일반적인 AI 법적 문제에 대해 자세히 알아보는 데 도움이 되었기를 바랍니다.

Miquido에서 우리는 영국 시장을 위한 AI 솔루션을 만드는 데 다년간의 경험을 가지고 있습니다. 비즈니스 요구 사항에 맞는 AI 기반 솔루션에 대해 논의하고 싶거나 단순히 질문을 하고 싶다면 주저하지 말고 저희에게 연락하십시오!

WKB – Wiercinsi, Kwiecinski, Baehr의 법적 조언과 트릭을 제공하여 이 기사를 작성하는 데 도움을 주셔서 특별히 감사드립니다!