القضايا القانونية التي يجب مراعاتها عند اعتماد الذكاء الاصطناعي
لذلك تريد أن تبدأ شركتك في استخدام الذكاء الاصطناعي. قبل التسرع في اعتماد الذكاء الاصطناعي، ضع في اعتبارك المخاطر المحتملة بما في ذلك القضايا القانونية المتعلقة بحماية البيانات والملكية الفكرية والمسؤولية. من خلال إطار عمل استراتيجي لإدارة المخاطر، يمكن للشركات التخفيف من مخاطر الامتثال الرئيسية ودعم ثقة العملاء مع الاستفادة من التطورات الحديثة في الذكاء الاصطناعي.
تحقق من بيانات التدريب الخاصة بك
أولاً، قم بتقييم ما إذا كانت البيانات المستخدمة لتدريب نموذج الذكاء الاصطناعي الخاص بك تتوافق مع القوانين المعمول بها مثل قانون الهند 2023 مشروع قانون حماية البيانات الشخصية الرقمية والاتحاد الأوروبي اللائحة العامة لحماية البيانات، والتي تتناول ملكية البيانات والموافقة والامتثال. إن المراجعة القانونية في الوقت المناسب التي تحدد ما إذا كان من الممكن استخدام البيانات المجمعة بشكل قانوني لأغراض التعلم الآلي يمكن أن تمنع حدوث مشكلات تنظيمية وقانونية لاحقًا.
يتضمن هذا التقييم القانوني التعمق في شروط الخدمة الحالية لشركتك، وبيانات سياسة الخصوصية، وغيرها من الشروط التعاقدية التي تواجه العملاء لتحديد الأذونات، إن وجدت، التي تم الحصول عليها من العميل أو المستخدم. والخطوة التالية هي تحديد ما إذا كانت هذه الأذونات كافية لتدريب نموذج الذكاء الاصطناعي. إذا لم يكن الأمر كذلك، فمن المحتمل أن تكون هناك حاجة إلى إشعار أو موافقة إضافية من العميل.
تثير الأنواع المختلفة من البيانات مشكلات مختلفة تتعلق بالموافقة والمسؤولية. على سبيل المثال، ضع في اعتبارك ما إذا كانت بياناتك عبارة عن معلومات تعريف شخصية، أو محتوى اصطناعي (يتم إنشاؤه عادةً بواسطة نظام ذكاء اصطناعي آخر)، أو ملكية فكرية لشخص آخر. يعد تقليل البيانات – باستخدام ما تحتاجه فقط – مبدأً جيدًا لتطبيقه في هذه المرحلة.
انتبه جيدًا لكيفية حصولك على البيانات. تمت مقاضاة OpenAI لاستخلاص البيانات الشخصية لتدريب خوارزمياتها. وكما هو موضح أدناه، فإن تجريف البيانات يمكن أن يثير تساؤلات حول انتهاك حقوق الطبع والنشر. بالإضافة إلى ذلك، يمكن تطبيق قوانين الإجراءات المدنية الأمريكية لأن عملية الكشط قد تكون كذلك انتهاك شروط خدمة موقع الويب. القوانين الأمريكية التي تركز على الأمن مثل قانون الاحتيال وإساءة استخدام الكمبيوتر ويمكن القول إنه قد يتم تطبيقه خارج أراضي الدولة من أجل مقاضاة الكيانات الأجنبية التي يُزعم أنها سرقت بيانات من أنظمة آمنة.
انتبه لقضايا الملكية الفكرية
اوقات نيويورك حديثاً رفع دعوى قضائية ضد OpenAI لاستخدام محتوى الصحيفة لأغراض التدريب، مستندة في حججها إلى ادعاءات انتهاك حقوق الطبع والنشر وتخفيف العلامات التجارية. تحمل الدعوى درسًا مهمًا لجميع الشركات التي تعمل في مجال تطوير الذكاء الاصطناعي: كن حذرًا بشأن استخدام المحتوى المحمي بحقوق الطبع والنشر لنماذج التدريب، خاصة عندما يكون من الممكن ترخيص هذا المحتوى من المالك. تفاحة وغيرها من الشركات لديها تعتبر خيارات الترخيص، والتي من المحتمل أن تظهر كأفضل طريقة للتخفيف من المطالبات المحتملة بانتهاك حقوق الطبع والنشر.
لتقليل المخاوف بشأن حقوق الطبع والنشر، مايكروسوفت وقد عرضت ل الوقوف وراء مخرجات مساعديه AI، واعدًا بالدفاع عن العملاء ضد أي مطالبات محتملة بانتهاك حقوق الطبع والنشر. ومن الممكن أن تصبح حماية الملكية الفكرية هذه هي المعيار في الصناعة.
تحتاج الشركات أيضًا إلى النظر في احتمالية التسرب غير المقصود المعلومات السرية والأسرار التجارية بواسطة منتج الذكاء الاصطناعي. في حالة السماح للموظفين باستخدام تقنيات داخليًا مثل ChatGPT (للنص) و جيثب مساعد الطيار (لإنشاء التعليمات البرمجية)، يجب على الشركات ملاحظة أن أدوات الذكاء الاصطناعي التوليدية هذه كثيرًا ما خذ مطالبات المستخدم والمخرجات كبيانات التدريب لمواصلة تحسين نماذجهم. لحسن الحظ، عادةً ما تقدم شركات الذكاء الاصطناعي المنتجة خدمات أكثر أمانًا والقدرة على إلغاء الاشتراك في التدريب النموذجي.
ابحث عن الهلوسة
تظهر أيضًا مطالبات انتهاك حقوق الطبع والنشر وقضايا حماية البيانات عندما تقوم نماذج الذكاء الاصطناعي التوليدية بإخراج بيانات التدريب كمخرجات لها.
وهذا غالبا ما يكون نتيجة نماذج “التجهيز الزائد”.، وهو في الأساس عيب تدريبي حيث يحفظ النموذج بيانات تدريب محددة بدلاً من تعلم القواعد العامة حول كيفية الاستجابة للمطالبات. يمكن أن يؤدي الحفظ إلى قيام نموذج الذكاء الاصطناعي بتجديد بيانات التدريب كمخرجات، وهو ما قد يكون كارثة من منظور حقوق الطبع والنشر أو حماية البيانات.
يمكن أن يؤدي الحفظ أيضًا إلى عدم دقة المخرجات، والتي يشار إليها أحيانًا باسم “الهلوسة”. في إحدى الحالات المثيرة للاهتمام، أ نيويورك تايمز كان المراسل تجربة برنامج Bing AI chatbot سيدني عندما أعلنت حبها للمراسل. أثار الحادث الفيروسي مناقشة حول الحاجة إلى مراقبة كيفية نشر هذه الأدوات، وخاصة من قبل المستخدمين الأصغر سنا، الذين هم أكثر عرضة لنسب الخصائص البشرية إلى الذكاء الاصطناعي.
تسببت الهلوسة أيضًا في حدوث مشكلات في المجالات المهنية. على سبيل المثال، تمت معاقبة محاميين بعد تقديم ملخص قانوني كتبه ChatGPT يشير إلى سوابق قضائية غير موجودة.
توضح مثل هذه الهلوسة لماذا تحتاج الشركات إلى اختبار منتجات الذكاء الاصطناعي والتحقق من صحتها لتجنب المخاطر القانونية فحسب، بل وأيضاً الإضرار بالسمعة. خصصت العديد من الشركات الموارد الهندسية ل تطوير مرشحات المحتوى التي تعمل على تحسين الدقة وتقليل احتمالية وجود مخرجات مسيئة أو مسيئة أو غير مناسبة أو تشهيرية.
تتبع البيانات
إذا كان لديك حق الوصول إلى بيانات المستخدم الشخصية، فمن الضروري أن تتعامل مع البيانات بشكل آمن. يجب عليك أيضًا التأكد من أنه يمكنك حذف البيانات ومنع استخدامها لأغراض التعلم الآلي استجابة لطلبات المستخدم أو تعليمات من الجهات التنظيمية أو المحاكم. يعد الحفاظ على مصدر البيانات وضمان بنية تحتية قوية أمرًا بالغ الأهمية لجميع فرق هندسة الذكاء الاصطناعي.
“من خلال إطار عمل استراتيجي لإدارة المخاطر، يمكن للشركات التخفيف من مخاطر الامتثال الرئيسية ودعم ثقة العملاء مع الاستفادة من التطورات الحديثة في الذكاء الاصطناعي.”
وترتبط هذه المتطلبات الفنية بالمخاطر القانونية. في الولايات المتحدة، الهيئات التنظيمية بما في ذلك لجنة التجارة الفيدرالية قد اعتمدت على الارتباك الخوارزمي، إجراء عقابي. إذا خالفت شركة ما القوانين المعمول بها أثناء جمع بيانات التدريب، فيجب عليها حذف البيانات ليس فقط ولكن أيضًا النماذج التي تم تدريبها على البيانات الملوثة. يُنصح بالاحتفاظ بسجلات دقيقة لمجموعات البيانات التي تم استخدامها لتدريب النماذج المختلفة.
احذر من التحيز في خوارزميات الذكاء الاصطناعي
أحد التحديات الرئيسية التي يواجهها الذكاء الاصطناعي هو احتمال التحيز الضار، والذي يمكن أن يكون متأصلًا في الخوارزميات. عندما لا يتم تخفيف التحيزات قبل إطلاق المنتج، يمكن للتطبيقات أن تؤدي إلى إدامة التمييز الحالي أو حتى تفاقمه.
على سبيل المثال، تبين أن خوارزميات الشرطة التنبؤية التي تستخدمها هيئات إنفاذ القانون في الولايات المتحدة تعمل على تعزيز التحيزات السائدة. الأسود واللاتيني وينتهي الأمر بالمجتمعات المحلية مستهدفة بشكل غير متناسب.
عندما تستخدم ل موافقات القروض أو للتوظيف، يمكن أن تؤدي الخوارزميات المتحيزة إلى نتائج تمييزية.
يقول الخبراء وصناع السياسات إنه من المهم أن تسعى الشركات لتحقيق العدالة في الذكاء الاصطناعي. يمكن أن يكون للتحيز الخوارزمي تأثير ملموس وإشكالي على الحريات المدنية وحقوق الإنسان.
كن شفافًا
أنشأت العديد من الشركات مجالس مراجعة الأخلاقيات لضمان توافق ممارساتها التجارية مع مبادئ الشفافية والمساءلة. تتضمن أفضل الممارسات الشفافية بشأن استخدام البيانات والدقة في تصريحاتك للعملاء حول قدرات منتجات الذكاء الاصطناعي.
المنظمون الأمريكيون يستهجنون الشركات التي المبالغة في تقدير قدرات الذكاء الاصطناعي في موادهم التسويقية. المنظمون لديهم أيضا حذرت الشركات ضد تغيير شروط ترخيص البيانات في عقودهم بهدوء ومن جانب واحد كوسيلة لتوسيع نطاق وصولهم إلى بيانات العملاء.
اتبع نهجًا عالميًا قائمًا على المخاطر
يوصي العديد من الخبراء في مجال حوكمة الذكاء الاصطناعي اتباع نهج قائم على المخاطر لتطوير الذكاء الاصطناعي. تتضمن الإستراتيجية رسم خرائط لمشاريع الذكاء الاصطناعي في شركتك، وتسجيلها على مقياس المخاطر، وتنفيذ إجراءات التخفيف. تقوم العديد من الشركات بدمج تقييمات المخاطر في العمليات الحالية التي تقيس التأثيرات القائمة على الخصوصية للميزات المقترحة.
عند وضع سياسات الذكاء الاصطناعي، من المهم التأكد من أن القواعد والمبادئ التوجيهية التي تفكر فيها ستكون كافية للتخفيف من المخاطر بطريقة عالمية، مع مراعاة أحدث القوانين الدولية.
قد يكون النهج الإقليمي لإدارة الذكاء الاصطناعي مكلفًا وعرضة للخطأ. لقد تم إقرار الاتحاد الأوروبي مؤخرًا قانون الذكاء الاصطناعي يتضمن مجموعة مفصلة من المتطلبات للشركات التي تعمل على تطوير واستخدام الذكاء الاصطناعي، والقوانين المشابهة ومن المرجح أن تظهر قريبا في آسيا.
مواكبة المراجعات القانونية والأخلاقية
تعد المراجعات القانونية والأخلاقية مهمة طوال دورة حياة منتج الذكاء الاصطناعي، مثل تدريب النموذج واختباره وتطويره وإطلاقه وحتى بعد ذلك. يجب على الشركات أن تفكر بشكل استباقي في كيفية تطبيق الذكاء الاصطناعي لإزالة أوجه القصور مع الحفاظ أيضًا على سرية بيانات العمل والعملاء.
بالنسبة للعديد من الأشخاص، يعد الذكاء الاصطناعي مجالًا جديدًا. ينبغي للشركات أن تستثمر في برامج التدريب لمساعدة القوى العاملة لديها على فهم أفضل السبل للاستفادة من الأدوات الجديدة واستخدامها لدفع أعمالها.