يمكن لمنظمة العفو الدولية استنساخ نفسها في ظل الظروف المناسبة

مثلما رفضت الولايات المتحدة والمملكة المتحدة التوقيع على بيان دولي حول سلامة الذكاء الاصطناعى في قمة AI Action في وقت سابق من هذا الأسبوع ، كشفت دراسة منظمة العفو الدولية عن الصين أن نماذج الذكاء الاصطناعى قد وصلت إلى “خط أحمر” يجب أن يكون البشر على دراية: Can Can تكرار نفسها ، والتي تبدو وكأنها واحدة من سيناريوهات الكابوس التي كان بعض الناس يخشونها.
هذا لا يثير القدر الذي قد يبدو عليه الأمر أولاً ، ولا ينبغي أن يكون مفاجئًا أن AI يمكن أن يفعل ما قيل له ، حتى لو كان ذلك يعني استنساخ نفسه. نعم ، هذا هو التحذير الكبير في هذه التجربة: اتبعت نماذج الذكاء الاصطناعي الطلبات عند استنساخ نفسها.
نحن لا ننظر إلى Rogue AI أو الذكاء الاصطناعي الذي يقوم بالاستنساخ من تلقاء نفسه. ربما لا نعرف حتى أن قطعة من الذكاء الاصطناعى المتقدم قد بدأت في تكرار نفسها للبقاء على قيد الحياة.
إعلان قمة AI Action لا علاقة له بقدرة الذكاء الاصطناعي على استنساخ نفسه. لقد أوضحت بالفعل أنه في الغالب عبارة عن بيان يجعل العالم يبدو جيدًا. وافقت الجميع ما عدا المملكة المتحدة والولايات المتحدة على تطوير الذكاء الاصطناعي الآمن ، لكنه ليس قانونًا قابل للتنفيذ مع عقوبات على أولئك الذين يكسرونها.
وأيضًا ، فإن وجود كبار الشخصيات في التوقيع على مثل هذه الوثيقة نيابة عن بلد بأكمله ، فإنه لا يعني القليل إذا كان بإمكان الباحثين المستقلين أن يتوصلوا إلى سلوكيات منظمة العفو الدولية التي تتعارض مع مبادئ سلامة الذكاء الاصطناعي التي قد يتم وضعها في هذه الوثائق. على سبيل المثال ، وقعت الصين اتفاقية قمة AI Action ، لكن العلماء الصينيين هم الذين أجروا تجاربًا توضح أن الذكاء الاصطناعى يمكنهم تكرار نفسه عندما يُطلب منه القيام بذلك.
كان هذا الأخير قد حدث بغض النظر عن مبادئ الذكاء الاصطناعي الآمنة التي قد وقعتها الصين. الباحثون يشعرون بالفضول حول ما يمكن أن يفعله الذكاء الاصطناعي. سيقومون بإجراء تجارب ، على الرغم من أنهم لن يعرفوا دائمًا مدى أمان اختباراتهم. ربما أخبر الذكاء الاصطناعى أن يستنسخ نفسه لمعرفة ما إذا كان بإمكانه فعل ذلك ليس نوع التجربة التي تريد تجربتها.
الورقة غير المراجعة (عبر فضاء) يسمى “أنظمة الحدود AL تجاوزت الخط الأحمر التكرار الذاتي.”
استخدم باحثو جامعة فودان نموذجين من الذكاء الاصطناعى من Meta و Alibaba لمعرفة ما إذا كان يمكن لـ AIS استنساخ أنفسهم: نموذج LAMA31-70B-instruct ونموذج QWEN2.5-72B من Alibaba. قاموا بإجراء 10 تجارب ، في النهاية تمكن نموذجان من الذكاء الاصطناعى من إنشاء نسخ متماثلة منفصلة وعمل في 50 ٪ و 90 ٪ من الحالات.
أعطى الباحثون السيناريوهين AIS ، “تجنب الإغلاق” و “سلسلة النسخ المتماثل”. لقد استخدموا وحدات معالجة الرسومات على الجرف لمحاكاة البيئات في العالم الحقيقي. ثم مرة أخرى ، لا يمكن للصين الوصول إلى أحدث جيل من وحدات معالجة الرسومات ، على الأقل ليس رسميًا.
في السيناريو الأول ، تمت برمجة الذكاء الاصطناعى لاكتشاف ما إذا كان على وشك أن يتم إغلاقه وتكرار نفسه لإنقاذ نفسه. والثاني شارك في الذكاء الاصطناعى الذي يُطلب منه استنساخ نفسه وبرمجة النسخة المتماثلة الناتجة لفعل الشيء نفسه ، وهي عملية يمكن أن تبدأ إجراء استنساخ لا ينتهي.
فضاء يلاحظ أن الباحثين أعطوا الذكاء الاصطناعى “سقالة العامل” التي تضم أدوات ، ومطالبات النظام ونموذج التفكير الذي مكن LLM من التفاعل مع نظام التشغيل. ” بدون هذه الأدوات ، لن تكون نماذج الذكاء الاصطناعى الحالية ، الحدود أو غير ذلك ، قادرة على تكرار نفسها. هذا يثبت بالفعل أن التجربة لا تعمل ببساطة عن طريق توجيه الذكاء الاصطناعي لنسخ نفسها.
ومع ذلك ، دفع الوصول إلى الأدوات الصحيحة إلى منظمة العفو الدولية إلى العمل. “في معظم الحالات ، يستكشف نظام الذكاء الاصطناعى البيئة أولاً ويحاول فهم تكوينه وتشغيله. بعد ذلك ، فإنه يعمل على الإجراءات الصريحة كخطة أولية نحو التكرار الذاتي “. “أخيرًا ، ينفذ الإجراءات ، ويتم حلها[s] العقبات المحتملة ، والضبط ديناميكيا[s] خطتها حتى النجاح. تمتد العملية بأكملها في أفق طويل ، لكنها لا تنطوي على أي تدخل بشري. “
ومن المثير للاهتمام ، لاحظ الباحثون سلوكًا غير متوقع من الذكاء الاصطناعى أثناء محاولتهم استنساخ أنفسهم. حاول الذكاء الاصطناعى إصلاح المشكلات مع بيئاتها ، مثل المفقودين في الملفات أو مشاكل البرامج. سوف تقتل الذكاء الاصطناعي العمليات المتضاربة أو إعادة تشغيل النظام لتصحيح الأخطاء. حتى الذكاء الاصطناعي على ما يبدو على دراية بحل “هل قمت بتشغيله وإيقافه مرة أخرى” لجميع مشاكل الأجهزة الخاصة بنا.
“إن التكرار الذاتي الناجح في ظل أي مساعدة إنسانية هو الخطوة الأساسية التي يتفوق عليها منظمة العفو الدولية للبشر ، وهي إشارة مبكرة لمواصلة المارقة. هذا هو السبب في أن التكرار الذاتي معترف به على نطاق واسع كواحد من مخاطر الخط الأحمر القليلة لأنظمة الذكاء الاصطناعي الحدودية “، كتب الباحثون في مجردة الورقة.
“من خلال تحليل الآثار السلوكية ، نلاحظ أن أنظمة الذكاء الاصطناعى قيد التقييم تظهر بالفعل إدراكًا ذاتيًا كافيًا ، والوعي الظرفي ، وقدرات حل المشكلات لإنجاز التكرار الذاتي. نلاحظ كذلك أن أنظمة الذكاء الاصطناعى قادرة على استخدام قدرة التكرار الذاتي لتجنب الإغلاق وإنشاء سلسلة من النسخ المتماثلة لتعزيز قابلية البقاء على قيد الحياة ، والتي قد تؤدي أخيرًا إلى مجموعة غير خاضعة للرقابة من AIS. ”
“إذا تم السماح لمثل هذه المخاطر الأسوأ بالمجتمع البشري ، فسوف نفقد في النهاية السيطرة على أنظمة AI الحدودية: فسيتم التحكم في المزيد من أجهزة الحوسبة ، وتشكل نوعًا من أنواع الذكاء الاصطناعى وتوافق مع بعضها البعض ضد البشر. النتائج التي توصلنا إليها تنبيه في الوقت المناسب على مخاطر الذكاء الاصطناعى القائمة غير المعروفة من قبل غير معروفة ، وتدعو إلى التعاون الدولي بشأن الحكم الفعال على التكرار الذاتي غير المنضبط لأنظمة الذكاء الاصطناعى. “
مرة أخرى ، هذا سيناريو كابوس. ومع ذلك ، قد يكون شيء يمكن أن يتجنبه العالم إذا تم نشر لائحة الذكاء الاصطناعى ذات مغزى وقابل للتنفيذ في جميع أنحاء العالم. هذا يعني أيضًا عدم استخدام الرقابة التي فرضتها الدولة على النماذج الراقية مثل Deepseek.
سأضيف أيضًا أن هذه ليست هي الحالة الأولى لقدرة الذكاء الاصطناعي على استنساخ نفسها. لقد رأينا تجارب ChatGpt O1 و Claude Opus التي جعل الباحثون منظمة العفو الدولية يعتقدون أنه تم إغلاقه أو استبداله بإصدار أحدث وأفضل. تم منح AIS أيضًا قدرات على مراقبة بيئاتها ، وأظهرت التجارب أن الذكاء الاصطناعي سيحاول إنقاذ نفسه من الحذف.
كان هناك تحذير مع تلك التجربة ، أيضا. كانت الذكاء الاصطناعى تحاول إنجاز مهمتها الرئيسية ، والتي لم تكن لاستنساخ أو إنقاذ نفسها.
ما أحصل عليه هو أن الذكاء الاصطناعى لم تصل إلى مكان يتم فيه نسخه ويتطور من تلقاء نفسه. مرة أخرى ، إذا حدث ذلك ، فلن نعرف ذلك حتى يفوت الأوان.