الذكاء الاصطناعي: قضايا قانونية في المملكة المتحدة

نشرت: 2020-07-16

تعد المملكة المتحدة من رواد أوروبا في مجال الذكاء الاصطناعي ، لا سيما في قطاع الرعاية الصحية. وفقًا لمعهد ماكينزي العالمي ، يمكن للذكاء الاصطناعي تعزيز اقتصاد المملكة المتحدة بنسبة 22٪ في غضون 10 سنوات.

إذا كنت تقوم بتطوير شركة ناشئة قائمة على الذكاء الاصطناعي أو أي نوع من المنتجات التي تعمل بالذكاء الاصطناعي في المملكة المتحدة ، فأنت في وضع أفضل من بقية أوروبا. الدولة منفتحة بشكل خاص على الابتكار ، وتدعم الحكومة بشدة العديد من المبادرات. على سبيل المثال ، يعمل معهد آلان تورينج ككيان وطني للذكاء الاصطناعي وعلوم البيانات ، في حين أن مجلس اللوردات لديه أيضًا لجنته الخاصة التي تركز على الذكاء الاصطناعي.

هذه الثقافة القائمة على البيانات تجعل المملكة المتحدة مركزًا هامًا للذكاء الاصطناعي. يشير تقرير صادر عن Coadec إلى أنه يتم تأسيس شركة ناشئة جديدة للذكاء الاصطناعي في الدولة كل أسبوع. قبل أن تبدأ ، على الرغم من ذلك ، هناك شيء يجب مراعاته أولاً: المتطلبات القانونية والمسائل القانونية الأكثر شيوعًا المتعلقة بالذكاء الاصطناعي .

نظرًا لأن الذكاء الاصطناعي هو مجال جديد ومتطور ، فإن له متطلبات مختلفة قليلاً عن الصناعات التقليدية الأخرى. إذا كنت تبحث عن مشورة قانونية ، فنحن هنا لتبدأ.

فيما يلي بعض أهم القضايا القانونية للذكاء الاصطناعي التي يجب مراعاتها:

التعريف القانوني للذكاء الاصطناعي

بادئ ذي بدء ، كيف تحدد حتى الذكاء الاصطناعي؟

هنا حيث تبدأ المشكلة. يلتزم بعض المشرعين بهذا الاستدلال ويعرفون الذكاء الاصطناعي على أنه مزيج من البرامج والبيانات . يبدو الأمر بسيطًا للغاية ، ولكن يجب الإشارة إلى أننا نتعامل مع برامج أكثر تعقيدًا وأحجام بيانات أكبر من أي وقت مضى.

يقترح متخصصون قانونيون آخرون ، مثل Jonas Schuett من جامعة Goethe ، أنه من الأفضل تجنب مصطلح الذكاء الاصطناعي . يقول إنه لا يوجد تعريف للذكاء الاصطناعي يلبي متطلبات التعريفات القانونية . بدلاً من ذلك ، يقترح التركيز على:

  • بعض التصاميم
  • استخدم حالات
  • قدرات مع وضع المخاطر المحتملة في الاعتبار

هذه الاقتراحات موجهة بشكل أساسي إلى صانعي السياسات ، ومع ذلك يمكنهم أيضًا توفيرها كمبدأ توجيهي لنفسك. لفهم ذلك بشكل صحيح ، من الأفضل التركيز على الحالة المحددة جدًا لاستخدام الذكاء الاصطناعي والمخاطر التي تصاحب ذلك.

أيقونة AI

عزز منتجك بالحلول القائمة على الذكاء الاصطناعي

يتعلم أكثر

تعريف الذكاء الاصطناعي في المملكة المتحدة

عندما يتعلق الأمر بالتعريف القانوني للذكاء الاصطناعي ، فإليك كيف تصفه حكومة المملكة المتحدة:

[...] التقنيات التي لها القدرة على أداء المهام التي تتطلب بخلاف ذلك ذكاءً بشريًا ، مثل الإدراك البصري والتعرف على الكلام وترجمة اللغة.

أضاف البرلمان البريطاني مؤخرًا جانبًا آخر لهذا التعريف. من المهم ملاحظة أن أنظمة الذكاء الاصطناعي لديها القدرة على التعلم أو التكيف مع التجارب أو المحفزات الجديدة.

القضايا القانونية الرئيسية للذكاء الاصطناعي

معالجة كميات كبيرة من البيانات

للعمل بشكل صحيح ، تحتاج خوارزميات الذكاء الاصطناعي إلى الكثير من البيانات. وهنا تأتي مشكلة قانونية أخرى تتعلق بالذكاء الاصطناعي: من يمتلك البيانات ومن يعتني بالأمن؟ يصبح الأمر أكثر تعقيدًا مع المعلومات الحساسة في قطاعات مثل الخدمات المصرفية أو الرعاية الصحية.

هناك نوعان من إجراءات أمان البيانات الرئيسية السارية حاليًا في المملكة المتحدة:

قانون حماية البيانات و GDPR (اللائحة العامة لحماية البيانات)

في عام 2018 ، حل قانون حماية البيانات محل لائحة من 1998. إلى جانب اللائحة العامة لحماية البيانات (GDPR) ، فإنه يشكل معالجة البيانات الشخصية في المملكة المتحدة.

كما تعلم بالفعل ، فقد غيّر تمامًا الطريقة التي نتعامل بها مع البيانات الشخصية في الاتحاد الأوروبي. على الرغم من جميع التغييرات التي تأتي مع خروج بريطانيا من الاتحاد الأوروبي ، لا تزال الشركات في المملكة المتحدة بحاجة إلى الامتثال للقانون العام لحماية البيانات (GDPR) ، لأنها غالبًا ما تعالج بيانات العملاء الأوروبيين الآخرين.

تتضمن بعض الآثار المتعلقة بالذكاء الاصطناعي التي تأتي مع اللائحة العامة لحماية البيانات ما يلي:

  • مبدأ الإنصاف - يدعي هذا الموضوعي أن الشركة يمكنها معالجة بيانات الموضوع بما يتماشى مع اهتماماتهم. تعد بيانات الإدخال المتحيزة مشكلة كبيرة في الذكاء الاصطناعي - سنقوم بتغطية هذا لاحقًا بمزيد من التفاصيل ، جنبًا إلى جنب مع الأمثلة العملية.
  • تقييد الغرض - يجب أن يكون لدى المستخدم حق الوصول إلى المعلومات حول سبب قيامك بجمع بياناته. نظرًا لأن الذكاء الاصطناعي يتطلب كميات كبيرة من المعلومات ، فأنت بحاجة إلى السماح لجمهورك بمعرفة ما ستفعله به.
  • الشفافية والوصول إلى المعلومات - يحق لعملائك الوصول إلى بياناتهم وطلب إزالتها عند الطلب. يُعرف هذا بالحق في النسيان .

تقدم قصة مؤسسة Royal Free NHS Foundation Trust و DeepMind ، وحدة الذكاء الاصطناعي التابعة لشركة Google ، مثالًا مثيرًا للاهتمام هنا. من المعروف أن التعاون بين هذين الطرفين قد انتهك قوانين حماية البيانات في المملكة المتحدة . اكتشفت ICO ، هيئة خصوصية البيانات في المملكة المتحدة ، أن المرضى لم يتم إبلاغهم باستخدام بياناتهم لتطوير حل للذكاء الاصطناعي.

إخفاء هوية البيانات

لاستخدام كميات كبيرة من البيانات ومشاركتها دون خرق القانون ، تحتاج إلى إخفاء هويتك أولاً. بيانات مجهولة المصدر هو مصطلح لوصف المعلومات التي لا يستطيع المرء ربطها بفرد على قيد الحياة. عندما تكون البيانات مجهولة المصدر ، فإن قانون حماية البيانات البريطاني لا ينطبق بعد الآن.

تتطلب عملية إخفاء الهوية التخلص من:

  • المعرفات المباشرة ، مثل الاسم أو البريد الإلكتروني أو رقم الهاتف
  • المعرفات غير المباشرة التي يمكن أن تكشف عن الفرد من خلال الإسناد الترافقي ، مثل مكان العمل والموقع

تساعد هذه الممارسة في حماية خصوصية المستخدمين ، ومع ذلك فإن إزالة المعرفات هي مجرد بداية الرحلة:

القضايا الأخلاقية والتحيزات

على الرغم من أن اسم الذكاء الاصطناعي قد يوحي بخلاف ذلك ، فإن هذه التكنولوجيا ليست محصنة ضد التحيزات الشبيهة بالإنسان. تصف سارة واتشر-بوتشر في كتابها خطأ تقنيًا مجموعة من الحالات التي يذهب فيها الذكاء الاصطناعي ، حسنًا ، إلى خطأ فادح.

يثبت المؤلف أنه في حين أن الذكاء الاصطناعي يمكن أن يكون مستقلاً تمامًا ، إلا أنه لا يزال يعتمد على نوع من المدخلات ، والذي لا يخلو من التحيزات وافتراضاتنا الأولية. على سبيل المثال ، وصفت حالة خوارزمية صور Google . كان الهدف هو اكتشاف ما في الصورة ، ومع ذلك فقد جاء مع قيود خطيرة واحدة - اعتبرت الأشخاص ذوي البشرة البيضاء على أنهم افتراضيون. وبسبب ذلك ، كان من المحتمل أن يتم تصنيف الأشخاص السود تلقائيًا على أنهم ... غوريلا. اكتشف أحد المستخدمين أن الخوارزمية تعتبرهم قرودًا في جميع ألبومات صور Google.

في هذه الحالة ، تكمن المشكلة في إدخال البيانات. تدربت الشبكة العصبية بشكل أساسي على النماذج البيضاء ، وهذا هو سبب عدم ملاحظتها للاختلافات العرقية. على الرغم من أن الخوارزمية لم تكن عنصرية بشكل صريح ، إلا أنها لا تزال تظهر تحيزًا عنصريًا واضحًا.

تثبت مثل هذه الحالات ، على حد تعبير الشخص العادي ، أن الذكاء الاصطناعي هو ما نصنعه. نحن نغذيها بالمعلومات المتأثرة بالتحيزات والقيود الخاصة بنا. قامت Wachter-Boettcher بتسمية أحد أقسام كتابها إدخال متحيز ، إخراج أكثر تحيزًا . تصف هذه الجملة القصيرة كيف يمكن للذكاء الاصطناعي تكثيف القضايا الأخلاقية المحتملة.

التحديات القانونية

كما ذكرنا ، الذكاء الاصطناعي مستقل ، لكن السؤال هو: من المسؤول عن الضرر الذي قد يسببه؟

عندما يتعلق الأمر باللوائح القانونية في المملكة المتحدة ، فإن النظام الآلي (مثل خوارزمية الذكاء الاصطناعي) ليس وكيلًا في مواجهة القانون. تقع المسؤولية على عاتق المبدعين ، مثل أصحاب المصلحة أو المشغلين أو المصممين أو مختبري النظام.

تعد مسألة المسؤولية عن الأضرار التي يسببها الذكاء الاصطناعي موضوعًا ساخنًا عندما يتعلق الأمر بتقديم منتجات جديدة ، مثل السيارات ذاتية القيادة. أصدر البرلمان الأوروبي مشروع تقرير يتضمن توصيات بشأن نظام المسؤولية المدنية ومدى ملاءمته للذكاء الاصطناعي.

أكد البرلمان أنه ليس من الممكن دائمًا تتبع إجراءات محددة إلى مدخلات أو تصميم بشري محدد . وبسبب ذلك ، فإنهم يقترحون أن المسؤولية يجب أن تستند إلى المخاطر وأن على ناشري أنظمة الذكاء الاصطناعي التفكير في عقد تأمين ضد المسؤولية.

في السنوات القادمة ، سنرى كيف ستستجيب الولايات القضائية المختلفة لمنتجات الذكاء الاصطناعي من أجل ضمان التعويض المناسب عن أي ضرر.

القضايا القانونية للذكاء الاصطناعي: الأفكار النهائية

نأمل أن يكون هذا الملخص قد ساعدك في معرفة المزيد حول الوضع القانوني والمسائل القانونية الأكثر شيوعًا للذكاء الاصطناعي في المملكة المتحدة .

في M Liquido ، نحن نعمل بسنوات من الخبرة في إنشاء حلول ذكاء اصطناعي لسوق المملكة المتحدة. إذا كنت ترغب في مناقشة حل قائم على الذكاء الاصطناعي يناسب احتياجات عملك ، أو ببساطة اطرح سؤالاً ، فلا تتردد في الاتصال بنا!

شكر خاص لـ WKB - Wiercinsi ، Kwiecinski ، Baehr على نصائحهم وحيلهم القانونية ، لمساعدتنا في كتابة هذا المقال!