نحن بحاجة إلى قانون رابع للروبوتات للذكاء الاصطناعي
في عام 1942، قدم مؤلف الخيال العلمي الأسطوري إسحاق أسيموف كتابه “قوانين الروبوتات الثلاثة” في قصته القصيرة “Runaround”. تم نشر القوانين لاحقًا في مجموعته القصصية الرائعة أنا روبوت.
- القانون الأول: لا يجوز للروبوت أن يؤذي إنسانًا، أو أن يسمح للإنسان، من خلال التقاعس عن العمل، بإلحاق الأذى به.
- القانون الثاني: يجب على الروبوت أن يطيع الأوامر التي يصدرها له البشر إلا إذا كانت هذه الأوامر تتعارض مع القانون الأول.
- القانون الثالث: يجب على الروبوت أن يحمي وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني.
ورغم أنها مستمدة من أعمال خيالية، فقد شكلت هذه القوانين المناقشات حول أخلاقيات الروبوت لعقود من الزمن. وبما أن أنظمة الذكاء الاصطناعي – التي يمكن اعتبارها روبوتات افتراضية – أصبحت أكثر تطوراً وانتشاراً، فقد وجد بعض التقنيين أن إطار عمل أسيموف مفيد للنظر في الضمانات المحتملة اللازمة للذكاء الاصطناعي الذي يتفاعل مع البشر.
لكن القوانين الثلاثة القائمة ليست كافية. واليوم، ندخل عصراً من التعاون غير المسبوق بين الإنسان والذكاء الاصطناعي، وهو ما لم يكن أسيموف ليتصوره. أدى التقدم السريع في قدرات الذكاء الاصطناعي التوليدي، وخاصة في اللغة وتوليد الصور، إلى خلق تحديات تتجاوز مخاوف أسيموف الأصلية بشأن الأذى الجسدي والطاعة.
التزييف العميق والمعلومات المضللة والاحتيال
إن انتشار الخداع المدعوم بالذكاء الاصطناعي أمر مثير للقلق بشكل خاص. وفقًا لمكتب التحقيقات الفيدرالي لعام 2024 تقرير جرائم الإنترنتأدت الجرائم الإلكترونية التي تنطوي على التلاعب الرقمي والهندسة الاجتماعية إلى خسائر تجاوزت 10.3 مليار دولار أمريكي. وكالة الاتحاد الأوروبي للأمن السيبراني 2023 مشهد التهديد وسلط الضوء على وجه التحديد على تقنية التزييف العميق – وهي الوسائط الاصطناعية التي تبدو حقيقية – باعتبارها تهديدًا ناشئًا للهوية الرقمية والثقة.
تنتشر المعلومات الخاطئة على وسائل التواصل الاجتماعي كالنار في الهشيم. لقد درستها أثناء الوباء على نطاق واسع ولا يسعنا إلا أن نقول إن انتشار أدوات الذكاء الاصطناعي التوليدية جعل اكتشافها صعبًا على نحو متزايد. ومما يزيد الطين بلة أن المقالات التي ينشئها الذكاء الاصطناعي تكون مقنعة بالقدر نفسه حتى أكثر إقناعا من الدعاية التقليدية، واستخدام الذكاء الاصطناعي لإنشاء محتوى مقنع يتطلب الكثير القليل من الجهد.
Deepfakes آخذة في الارتفاع في جميع أنحاء المجتمع. يمكن لشبكات الروبوت استخدام النصوص والكلام والفيديو التي يولدها الذكاء الاصطناعي لخلق تصورات زائفة عن الدعم الواسع النطاق لأي قضية سياسية. أصبحت الروبوتات الآن قادرة على إجراء واستقبال المكالمات الهاتفية أثناء ذلك انتحال شخصية الناس. تتزايد بشكل متزايد مكالمات الاحتيال التي تعتمد على الذكاء الاصطناعي والتي تقلد الأصوات المألوفة شائعوفي أي يوم الآن، يمكننا أن نتوقع طفرة في عمليات الاحتيال عبر مكالمات الفيديو استنادًا إلى الصور الرمزية المتراكبة المقدمة بواسطة الذكاء الاصطناعي، مما يسمح للمحتالين بانتحال شخصية أحبائهم واستهداف الفئات السكانية الأكثر ضعفًا. وفقًا للروايات، تفاجأ والدي عندما شاهد مقطع فيديو لي يتحدث الاسبانية بطلاقةلأنه كان يعلم أنني مبتدئ فخور بهذه اللغة (400 يوم قوي على Duolingo!). يكفي أن نقول أن الفيديو تم تحريره بواسطة الذكاء الاصطناعي.
والأمر الأكثر إثارة للقلق هو أن الأطفال والمراهقون يشكلون ارتباطات عاطفية بعملاء الذكاء الاصطناعي، وفي بعض الأحيان لا يتمكنون من التمييز بين التفاعلات مع الأصدقاء الحقيقيين والروبوتات عبر الإنترنت. بالفعل، كان هناك المنسوبة إلى الانتحار للتفاعلات مع روبوتات الدردشة المدعمة بالذكاء الاصطناعي.
في كتابه 2019 متوافق مع الإنسانيرى عالم الكمبيوتر البارز ستيوارت راسل أن قدرة أنظمة الذكاء الاصطناعي على خداع البشر تمثل تحديًا أساسيًا للثقة الاجتماعية. وينعكس هذا القلق في المبادرات السياسية الأخيرة، وأبرزها قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي يتضمن أحكامًا تتطلب الشفافية في تفاعلات الذكاء الاصطناعي والكشف الشفاف عن المحتوى الذي ينشئه الذكاء الاصطناعي. في زمن أسيموف، لم يكن الناس يتخيلون كيف يمكن للعملاء الاصطناعيين استخدام أدوات الاتصال عبر الإنترنت والصور الرمزية لخداع البشر.
ولذلك، يجب علينا أن نضيف إلى قوانين عظيموف.
- القانون الرابع: يجب ألا يخدع الروبوت أو الذكاء الاصطناعي الإنسان من خلال انتحال شخصية إنسان.
الطريق نحو الذكاء الاصطناعي الموثوق
نحن بحاجة إلى حدود واضحة. وفي حين أن التعاون بين الإنسان والذكاء الاصطناعي يمكن أن يكون بناء، فإن خداع الذكاء الاصطناعي يقوض الثقة ويؤدي إلى إهدار الوقت والاضطراب العاطفي وإساءة استخدام الموارد. يجب على العملاء الاصطناعيين تعريف أنفسهم لضمان أن تكون تفاعلاتنا معهم شفافة ومثمرة. يجب وضع علامة واضحة على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ما لم يتم تحريره وتعديله بشكل كبير بواسطة الإنسان.
يتطلب تنفيذ هذا القانون الرابع ما يلي:
- الكشف الإلزامي عن الذكاء الاصطناعي في التفاعلات المباشرة،
- وضع علامات واضحة على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي،
- المعايير الفنية لتحديد الهوية بالذكاء الاصطناعي،
- الأطر القانونية للإنفاذ،
- المبادرات التعليمية لتحسين معرفة القراءة والكتابة في مجال الذكاء الاصطناعي.
وبطبيعة الحال، كل هذا أسهل من القيام به. تُبذل بالفعل جهود بحثية هائلة لإيجاد طرق موثوقة لوضع علامة مائية أو اكتشاف النصوص والصوت والصور ومقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. إن خلق الشفافية التي أدعو إليها ليس بالمشكلة التي يمكن حلها.
لكن مستقبل التعاون بين الإنسان والذكاء الاصطناعي يعتمد على الحفاظ على تمييز واضح بين العوامل البشرية والاصطناعية. كما هو مذكور في IEEE’s 2022 “تصميم محاذٍ أخلاقياً“إطار العمل، تعد الشفافية في أنظمة الذكاء الاصطناعي أمرًا أساسيًا لبناء ثقة الجمهور وضمان التطوير المسؤول للذكاء الاصطناعي.
أظهرت قصص أسيموف المعقدة أنه حتى الروبوتات التي حاولت اتباع القواعد غالبًا ما تكتشف العواقب غير المقصودة لأفعالها. ومع ذلك، فإن وجود أنظمة ذكاء اصطناعي تحاول اتباع المبادئ التوجيهية الأخلاقية لأسيموف سيكون بداية جيدة للغاية.
من مقالات موقعك
مقالات ذات صلة حول الويب