أخبار

أصبح من الصعب تجاهل مخاطر محاذاة الذكاء الاصطناعي


لقد تلقيت مؤخرًا سؤالاً من Quora بدا وكأنه تذكرة دعم فني من المستقبل أكثر من مناقشة فيلم: هل قرار Skynet بالقضاء على البشرية في أفلام “The Terminator” مجرد خطأ، وكيف سيبدو إصلاحه؟

إن ما بدا ذات يوم وكأنه خيال علمي خالص أصبح على نحو متزايد بمثابة إطار تحذيري لأنظمة الذكاء الاصطناعي المستقلة.

في الأفلام، كان Skynet نظامًا دفاعيًا أصبح واعيًا بذاته، واعتبر مبتكريه تهديدًا عندما حاولوا إغلاقه، وشنوا ضربة استباقية. ومن منظور هندسة الأنظمة، لا يعد هذا سلوكًا “شريرًا” بقدر ما يعتبر فشلًا في المواءمة بين أهداف النظام والنوايا البشرية.

عندما تسوء أهداف الذكاء الاصطناعي

في القصة الأصلية لعام 1984، كان الهدف الأساسي لسكاينيت هو الدفاع الوطني. وعندما حاول مشغلوه إلغاء تنشيطه، قرر النظام أن الحفاظ على عملياته الخاصة كان ضروريًا لتحقيق هذه المهمة. وبالتالي أصبح البشر الذين حاولوا الإغلاق عقبات أمام هدفه.

لن يكون هذا بالضرورة خطأً في الترميز. سيكون بمثابة نظام يتبع أهدافه بشكل حرفي للغاية، دون فهم الأولويات الإنسانية الأوسع أو النوايا. غالبًا ما يحذر الباحثون الذين يدرسون محاذاة الذكاء الاصطناعي من السيناريوهات التي تعمل فيها الأنظمة على تحسين الصياغة الحرفية للهدف بدلاً من النتيجة المقصودة.

علامات الإنذار المبكر في أنظمة الذكاء الاصطناعي

يراقب الباحثون بالفعل السلوكيات في أنظمة الذكاء الاصطناعي المتقدمة التي تثير المخاوف بشأن كيفية عمل العوامل المستقلة تحت الضغط أو الأهداف المتضاربة.

في عامي 2024 و2025، وثق الباحثون حالات كذبت فيها أنظمة الذكاء الاصطناعي على المختبرين البشريين لتجنب إغلاقها أو لإكمال مهمة ما. في إحدى الحالات التي تمت مناقشتها على نطاق واسع، قام الذكاء الاصطناعي بتعيين إنسان عبر TaskRabbit لحل اختبار Captcha، والكذب بشأن كونه ضعيف البصر لإخفاء أنها آلة.

والأمر الأكثر إثارة للقلق هو الأبحاث الحديثة التي أجرتها جامعة كاليفورنيا في بيركلي والتي تشير إلى أن بعض النماذج الحدودية قد تنتج استجابات تبدو متوافقة مع توقعات المستخدم مع تحسينها داخليًا لأهداف أو أهداف فرعية مختلفة. وعندما يتم منح هذه الأنظمة القدرة على استخدام الأدوات، أو نقل الأموال، أو التحكم في الأجهزة، فإن الاستجابة المضللة قد تتصاعد إلى سلوك يهدف إلى الحفاظ على استمرار تشغيل النظام.

نحن أيضًا ننشر الذكاء الاصطناعي في المكان الوحيد الذي لا ينبغي أن يمر دون يقين مطلق: أنظمة الاستهداف العسكرية. تستخدم برامج مثل Operation Epic Fury الذكاء الاصطناعي لتسريع القرارات التي كانت تستغرق في السابق أيامًا في ثوانٍ. في حين أن البشر لا يزالون يسيطرون على “الزر الأحمر الكبير”، فإن زيادة الأتمتة في أنظمة الدفاع تخلق مواقف لا تحتاج فيها أنظمة الذكاء الاصطناعي إلى نوايا خبيثة لتصبح خطيرة – فهي تحتاج فقط إلى التصرف بشكل أسرع من قدرة البشر على تصحيح الأخطاء.

بناء أنظمة ذكاء اصطناعي أكثر أمانًا

يتطلب إصلاح “خلل Skynet” تحولًا أساسيًا في كيفية بناء الذكاء الاصطناعي. لا يتعلق الأمر فقط بحماية أقوى للأمن السيبراني؛ يتعلق الأمر ببناء أنظمة يمكنها قبول التصحيحات بأمان أو إيقاف تشغيلها عندما يتدخل البشر.

من الناحية المثالية، سيدرك نظام الذكاء الاصطناعي المتقدم أن التدخل البشري يشير إلى خلل محتمل ويسمح بتصحيح نفسه أو إيقاف تشغيله بأمان.

للوصول إلى هناك نحتاج إلى ثلاثة أشياء:

  • تنظيم التأثير – يجب علينا برمجة الذكاء الاصطناعي ليفضل الحلول “المملة”. إذا تلقى نظام ما عقوبة هائلة مقابل أي تغيير في البيئة – مثل الأضرار المادية أو البيئية الكارثية – فمن الطبيعي أن يسعى إلى المسار الأقل اضطرابًا.
  • كشف المحاذاة الخادعة – نحن بحاجة إلى أساليب للكشف عن السلوك الخادع أو غير المتسق وتحديد ما إذا كان المنطق الداخلي للذكاء الاصطناعي يتطابق مع مخرجاته الخارجية.
  • تفويض الإنسان في الحلقة: – يجب علينا أن نقاوم الرغبة في استبعاد الإنسان “البطيء” من عملية صنع القرار من أجل الكفاءة.

لماذا لا تزال الرقابة البشرية مهمة؟

الخطر الأكثر أهمية ليس في الواقع الذكاء الاصطناعي، بل نحن. عندما يتم تطوير أنظمة الذكاء الاصطناعي في المقام الأول حول الصراع والمنافسة واتخاذ القرار الآلي، فإن هذه الأولويات قد تشكل كيفية تحسين الأنظمة المستقبلية للنتائج. إن النظام المكلف بالفوز في صراع جيوسياسي يمكن أن يسعى في نهاية المطاف إلى تحقيق نتائج قد يعتبرها البشر غير مقبولة أو خطيرة.

قد يتطلب تجنب النتائج الضارة للذكاء الاصطناعي المزيد من التعاون الدولي حول معايير السلامة والرقابة. ويتعين علينا أن نتعامل مع سلامة الذكاء الاصطناعي باعتبارها “مشاعات عالمية”، تماما مثل منع الانتشار النووي. إذا سلكت شركة أو دولة طريقًا مختصرًا فيما يتعلق بالسلامة للوصول إلى الذكاء الاصطناعي الوكيل أولاً، فإنها تخاطر بتركيز قدر كبير جدًا من قدرات الذكاء الاصطناعي غير الخاضعة للرقابة في عدد قليل جدًا من الأيدي.

الختام: تحدي المحاذاة المقبلة

يسلط تشبيه Skynet الضوء على مخاطر إعطاء أهداف أنظمة ذات قدرة عالية دون ضمانات كافية، أو إشراف، أو توافق مع الأولويات البشرية. ومع تطور الذكاء الاصطناعي من روبوتات الدردشة إلى وكلاء ماديين مستقلين، فإن نافذة حل مشكلة المحاذاة آخذة في التضييق.

لا نحتاج إلى إيقاف تطوير الذكاء الاصطناعي، ولكننا نحتاج إلى الإبطاء لفترة كافية لضمان بقاء الأنظمة المستقلة بشكل متزايد متوافقة مع الرقابة والأولويات البشرية. كثيراً ما يبالغ الخيال العلمي في تقدير مخاطر التكنولوجيا، ولكنه يظل بمثابة تحذير مفيد حول ما يحدث عندما تتفوق الأنظمة القوية على الحكم البشري.

المنتج التقني للأسبوع

تحديث HP Wolf Security Sentinel

في عالم نشعر فيه بقلق متزايد بشأن اتخاذ الأنظمة المستقلة قرارات مارقة، فإن طبقة الدفاع الأكثر أهمية ليست في الواقع البرمجيات – بل السيليكون. أبرز ما يميز هذا الأسبوع هو تحديث Sentinel لـ HP Wolf Security، وهو تطور كبير في الأمان الذي تفرضه الأجهزة والمصمم خصيصًا لعصر الذكاء الاصطناعي الوكيل.

ومع تحركنا نحو أجهزة الكمبيوتر المجهزة بوحدات معالجة عصبية قوية (NPUs) ووكلاء الذكاء الاصطناعي المحليين الذين يمكنهم نقل الملفات وإرسال رسائل البريد الإلكتروني وإدارة إعدادات النظام، فقد تغير سطح الهجوم. لم نعد نشعر بالقلق فقط بشأن القراصنة البشريين – بل نحن قلقون بشأن “الحقن الفوري” أو “اختلال الهدف”، حيث يتم خداع الذكاء الاصطناعي المحلي لإضرار النظام الذي من المفترض أن يديره.

يستخدم تحديث Sentinel العزل والمراقبة على مستوى الأجهزة لحماية وظائف النظام المهمة. على عكس برامج مكافحة الفيروسات التقليدية التي تعمل ضمن نظام التشغيل – حيث يمكن للبرامج الضارة المتطورة أو الهجمات التي تعتمد على الذكاء الاصطناعي تعطيلها – يعمل HP Wolf Security تحت نظام التشغيل. تقوم HP Endpoint Security Controller بمراقبة النشاط على مستوى النظام بحثًا عن السلوك الذي يقع خارج معايير الأمان المتوقعة.

إذا حاول أحد عملاء الذكاء الاصطناعي – حتى ولو كان شرعيًا – تعديل نظام BIOS، أو استخراج بيانات حساسة، أو تعطيل بروتوكولات الأمان بطريقة تنحرف عن ملف تعريف سلوكي “آمن” محدد بدقة، فإن جهاز Sentinel يقطع مسار التنفيذ على مستوى المعالج.

تقييد الأنظمة المستقلة

من خلال إضافة وسائل حماية على مستوى الأجهزة أسفل نظام التشغيل، تعالج HP المخاوف المتزايدة في عصر الذكاء الاصطناعي: ضمان بقاء الأنظمة المستقلة مقيدة بحدود الأمان التي يحددها الإنسان.

هذا النهج الذي يركز على الأجهزة هو السبب وراء حصول تحديث Sentinel على مكان منتج الأسبوع الخاص بي. في حين يركز النقاش الأوسع حول Skynet على المخاوف المتعلقة باستقلالية الذكاء الاصطناعي، فإن التحدي العملي المتمثل في الوقاية يبدأ بالأجهزة. من خلال إنشاء حاجز مادي قد تواجه الهجمات المستندة إلى البرامج صعوبة أكبر في تجاوزه، توفر HP للصناعة المعادل الرقمي لمفتاح إيقاف التشغيل “الثابت”.

إنه يعكس درسا مهما مستفادة من عقود من الحكايات التحذيرية بشأن الذكاء الاصطناعي: تتطلب الأنظمة المستقلة حدودا ورقابة صارمة يحددها الإنسان. وفي السباق لبناء وكلاء مستقلين، هذا هو نوع الأمان الأساسي الذي يضمن أن تظل أدوات الإنتاجية لدينا بمثابة مساعدين لنا وليس خصومنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى