人工知能: 英国における法的問題
公開: 2020-07-16英国は、人工知能、特にヘルスケア分野におけるヨーロッパのリーダーの 1 つです。 マッキンゼー グローバル インスティテュートによると、AI は 10 年以内に英国経済を 22% 押し上げることができます。
英国で AI ベースのスタートアップやあらゆる種類の AI を利用した製品を開発している場合、ヨーロッパの他の地域よりも有利な立場にいます。 この国はイノベーションに対して特にオープンであり、政府は多くのイニシアチブを熱心にサポートしています。 たとえば、アラン チューリング研究所は人工知能とデータ サイエンスの国家機関としての役割を果たしていますが、貴族院には AI に焦点を当てた独自の委員会もあります。
このデータ駆動型の文化により、英国は重要な人工知能ハブとなっています。 Coadec のレポートによると、毎週新しい AI スタートアップが国内で設立されています。 ただし、始める前に、まず考慮すべきことがあります。それは、法的要件と最も一般的な AI 関連の法的問題です。
AI は新しく発展途上の分野であるため、他のより伝統的な業界とは少し異なる要件があります。 法的なアドバイスをお探しの場合は、ここから始めましょう。
考慮すべき最も重要な AI の法的問題のいくつかを以下に示します。
AIの法的定義
まず第一に、人工知能をどのように定義しますか?
ここから問題が始まります。 一部の議員は、このヒューリスティックに固執し、AIをソフトウェアとデータの組み合わせと定義しています。 非常に単純に聞こえますが、これまで以上に洗練されたソフトウェアと大量のデータを扱っていることを指摘しておく必要があります。
ゲーテ大学のヨナス・シュエットなどの他の法律専門家は、人工知能という用語を避ける方がよいと示唆しています。 彼は、法的定義の要件を満たす AI の定義は存在しないと述べています。 代わりに、彼は次のことに焦点を当てることを提案しています。
- 特定のデザイン
- ユースケース
- 考えられるリスクを考慮した機能
これらの提案は主に政策立案者に向けられたものですが、自分自身のガイドラインとして保存することもできます. それを正しく理解するには、AI の使用の非常に具体的なケースとそれに伴うリスクに焦点を当てるのが最善です。
AI ベースのソリューションで製品を強化する
もっと詳しく知る英国における AI の定義
人工知能の法的定義に関しては、英国政府は次のように説明しています。
[…] 視覚認識、音声認識、言語翻訳など、人間の知性を必要とするタスクを実行する機能を備えたテクノロジ。
英国議会は最近、この定義に別の側面を追加しました。 AI システムには、新しい経験や刺激を学習または適応する能力があることに注意することが重要です。
AIの主な法的問題
大量のデータの処理
人工知能アルゴリズムが適切に機能するには、大量のデータが必要です。 ここで、AI に関する別の法的問題が発生します。データの所有者とセキュリティの管理者は誰ですか? 銀行や医療などのセクターの機密情報では、さらに複雑になります。
現在、英国で施行されている主なデータ セキュリティ法は 2 つあります。
データ保護法と GDPR (一般データ保護規則)
2018 年に、データ保護法が 1998 年の規制に取って代わりました。GDPR とともに、英国における個人データの処理を形作っています。

すでにご存じのとおり、EU における個人データの扱い方が完全に変わりました。 Brexit に伴うすべての変更にもかかわらず、英国の企業は、他のヨーロッパのクライアントのデータを処理することが多いため、GDPR に準拠する必要があります。
GDPR に伴う AI 関連の影響には、次のようなものがあります。
- 公平性の原則– この目標は、企業が対象者のデータを対象者の利益に沿って処理できることを主張します。 バイアスされた入力データは、AI の大きな問題です。これについては、実践的な例とともに後で詳しく説明します。
- 目的の制限– ユーザーは、データを収集する理由に関する情報にアクセスできる必要があります。 AI は大量の情報を必要とするため、AI を使って何をしようとしているのかを聴衆に知らせる必要があります。
- 透明性と情報へのアクセス– 顧客には、自分のデータにアクセスし、要求に応じて削除を依頼する権利があります。 これは、忘れられる権利として知られています。
Royal Free NHS Foundation Trust と Google の AI ユニットである DeepMind の話は、ここで興味深い例です。 これら 2 つの当事者間のコラボレーションは、英国のデータ保護法に違反したことが知られています。 英国のデータ プライバシー機関である ICO は、患者が自分のデータが AI ソリューションの開発に使用されることを知らされていないことを発見しました。
データの匿名化
法律に違反することなく大量のデータを使用および共有するには、まずデータを匿名化する必要があります。 匿名データ は、生きている個人に関連付けることができない情報を表す用語です。 データが匿名化されると、英国のデータ保護法は適用されなくなります。
匿名化のプロセスでは、次のものを取り除く必要があります。
- 名前、メールアドレス、電話番号などの直接的な識別子
- 職場や場所など、相互参照によって個人を明らかにする可能性のある間接的な識別子
このプラクティスはユーザーのプライバシーを保護するのに役立ちますが、識別子を削除することは旅の始まりにすぎません。
倫理的な問題と偏見
人工知能という名前は別のことを示唆しているかもしれませんが、この技術は人間のようなバイアスの影響を受けません。 Sara Wachter-Boettcher は著書『 Technically Wrong 』の中で、AI が非常にうまくいかないさまざまなケースについて説明しています。
著者は、人工知能が完全に自律的である可能性がある一方で、それは依然としてある種の入力に基づいており、偏見や最初の仮定から解放されていないことを証明しています. たとえば、彼女はGoogle フォト アルゴリズムのケースについて説明しました。 目標は写真に写っているものを検出することでしたが、1 つの深刻な制限がありました。それは、肌の白い人をデフォルトと見なしていたことです。 そのため、黒人を自動的に…ゴリラとしてタグ付けする可能性がありました. ユーザーの 1 人は、Google フォトのすべてのアルバムで、アルゴリズムが自分を類人猿と見なしたことを発見しました。
この場合、問題は入力データにあります。 ニューラル ネットワークは主に白人モデルでトレーニングされたため、人種の違いを捉えることができませんでした。 アルゴリズムは明示的に人種差別主義者ではありませんでしたが、明らかな人種的偏見を示しています.
このような事例は、平たく言えば、AI は私たちが作るものであることを証明しています。 私たちは、私たち自身の偏見や制限の影響を受けた情報をフィードします。 Wachter-Boettcher は、彼女の著書Biased Input, Even More Biased Outputのセクションの 1 つに名前を付けました。 この短い文は、AI が潜在的な倫理的問題をどのように激化させるかを説明しています。
法的課題
前述したように、AI は自律的ですが、問題は、AI が引き起こす可能性のある損害について誰が責任を負うのかということです。
英国の法的規制に関して言えば、自動化されたシステム (AI アルゴリズムなど) は法律に直面したエージェントではありません。 責任は、システムの利害関係者、オペレーター、設計者、またはテスターなどの作成者の手にあります。
自動運転車などの新製品の導入に関しては、AI によって引き起こされた損害に対する責任の問題がホットなトピックです。 欧州議会は、民事責任体制とその AI への適合性に関する勧告を含む報告書の草案を発行しました。
議会は、特定の行動を特定の人間の入力または設計にまでさかのぼることが常に可能であるとは限らないことを強調しました。 そのため、責任はリスクに基づくべきであり、AI システムの導入者は責任保険に加入することを検討すべきであると彼らは示唆しています。
今後数年間で、損害に対する適切な補償を確保するために、さまざまな管轄区域が AI 製品にどのように対応するかを確認する予定です。
人工知能の法的問題: 最終的な考え
この要約が、英国における法的地位と最も一般的な AI の法的問題について理解を深めるのに役立つことを願っています。
Miquido では、英国市場向けの AI ソリューションの作成における長年の経験に基づいて取り組んでいます。 ビジネス ニーズに合った AI ベースのソリューションについて話し合いたい場合、または単に質問をしたい場合は、お気軽にお問い合わせください。
WKB – Wiercinsi、Kwiecinski、Baehr の法的なヒントと秘訣に特に感謝し、この記事の執筆を支援してくれました。