سلامة الذكاء الاصطناعي العالمية تعيقها التردد والتأخير التنظيمي
تسعى الحكومات إلى إنشاء ضمانات أمنية حول الذكاء الاصطناعي، لكن الحواجز والتردد في اتخاذ القرار يؤديان إلى تأخير الاتفاقيات بين الدول بشأن الأولويات والعقبات التي يجب تجنبها.
في نوفمبر/تشرين الثاني 2023، نشرت بريطانيا العظمى إعلان بلتشلي، الذي وافق على تعزيز الجهود العالمية للتعاون في مجال سلامة الذكاء الاصطناعي مع 28 دولة، بما في ذلك الولايات المتحدة والصين والاتحاد الأوروبي.
استمرت الجهود لمتابعة لوائح سلامة الذكاء الاصطناعي في مايو مع انعقاد القمة العالمية الثانية للذكاء الاصطناعي، والتي حصلت خلالها المملكة المتحدة وجمهورية كوريا على التزام 16 شركة عالمية لتكنولوجيا الذكاء الاصطناعي بمجموعة من نتائج السلامة بناءً على تلك الاتفاقية.
وقالت بريطانيا في بيان منفصل مصاحب للإعلان: “يحقق الإعلان أهداف القمة الرئيسية من خلال إرساء اتفاق مشترك ومسؤولية بشأن المخاطر والفرص وعملية متقدمة للتعاون الدولي بشأن سلامة وأبحاث الذكاء الاصطناعي الحدودي، لا سيما من خلال تعاون علمي أكبر”.
أصبح قانون الذكاء الاصطناعي الذي أقره الاتحاد الأوروبي في مايو/أيار، أول قانون رئيسي في العالم ينظم الذكاء الاصطناعي. ويشمل صلاحيات التنفيذ والعقوبات، مثل غرامات قدرها 38 مليون دولار أو 7٪ من إيراداتها العالمية السنوية إذا انتهكت الشركات القانون.
بعد ذلك، في رد جوني الذي جاء مؤخرًا، أوصت مجموعة من أعضاء مجلس الشيوخ الأمريكي من الحزبين الجمهوري والديمقراطي بأن يقوم الكونجرس بصياغة تشريع للإنفاق الطارئ بقيمة 32 مليار دولار للذكاء الاصطناعي ونشر تقريرًا يقول إن الولايات المتحدة بحاجة إلى تسخير فرص الذكاء الاصطناعي ومعالجة المخاطر.
“تحتاج الحكومات بالتأكيد إلى المشاركة في الذكاء الاصطناعي، خاصة عندما يتعلق الأمر بقضايا الأمن القومي. نحن بحاجة إلى استغلال الفرص التي يتيحها الذكاء الاصطناعي، ولكن علينا أيضًا أن نكون حذرين من المخاطر. وقال جوزيف ثاكر، مهندس الذكاء الاصطناعي الرئيسي والباحث الأمني في شركة SaaS الأمنية AppOmni، لـ TechNewsWorld: “الطريقة الوحيدة أمام الحكومات للقيام بذلك هي أن تكون على علم، ويتطلب الحصول على المعلومات الكثير من الوقت والمال”.
سلامة الذكاء الاصطناعي الأساسية لمنصات SaaS
تتزايد أهمية سلامة الذكاء الاصطناعي يوميًا. وأشار ثاكر إلى أن كل منتج برمجي تقريبًا، بما في ذلك تطبيقات الذكاء الاصطناعي، تم تصميمه الآن كتطبيق برمجي كخدمة (SaaS). ونتيجة لذلك، سيكون ضمان أمان وسلامة منصات SaaS هذه أمرًا بالغ الأهمية.
“نحن بحاجة إلى تدابير أمنية قوية لتطبيقات SaaS. يجب أن يكون الاستثمار في أمن SaaS أولوية قصوى لأي شركة تقوم بتطوير أو نشر الذكاء الاصطناعي.
يضيف بائعو SaaS الحاليون الذكاء الاصطناعي إلى كل شيء، مما يؤدي إلى المزيد من المخاطر. وأكد أن الوكالات الحكومية يجب أن تأخذ ذلك في الاعتبار.
استجابة الولايات المتحدة لاحتياجات السلامة في مجال الذكاء الاصطناعي
يريد ثاكر من حكومة الولايات المتحدة أن تتخذ نهجا أسرع وأكثر تعمدا في مواجهة حقائق عدم وجود معايير سلامة الذكاء الاصطناعي. ومع ذلك، فقد أشاد بالتزام 16 شركة كبرى في مجال الذكاء الاصطناعي بإعطاء الأولوية للسلامة والنشر المسؤول لنماذج الذكاء الاصطناعي الحدودية.
“إنه يُظهر الوعي المتزايد بمخاطر الذكاء الاصطناعي والرغبة في الالتزام بالتخفيف منها. ومع ذلك، فإن الاختبار الحقيقي سيكون مدى التزام هذه الشركات بالتزاماتها ومدى شفافيتها في ممارسات السلامة الخاصة بها.
ومع ذلك، فإن مديحه لم يكن كافيا في مجالين رئيسيين. ولم ير أي ذكر للعواقب أو مواءمة الحوافز. وأضاف أن كلاهما مهم للغاية.
وفقًا لثاكر، فإن مطالبة شركات الذكاء الاصطناعي بنشر أطر عمل السلامة يُظهر المساءلة، مما سيوفر نظرة ثاقبة لجودة وعمق اختباراتها. ستسمح الشفافية بالتدقيق العام.
وأشار إلى أن “هذا قد يفرض أيضًا تبادل المعرفة وتطوير أفضل الممارسات في جميع أنحاء الصناعة”.
يريد ثاكر أيضًا اتخاذ إجراءات تشريعية أسرع في هذا المجال. ومع ذلك، فهو يعتقد أن حدوث حركة كبيرة سيكون أمرًا صعبًا بالنسبة للحكومة الأمريكية في المستقبل القريب، نظرًا لمدى بطء تحرك المسؤولين الأمريكيين عادةً.
وقال: “نأمل أن تؤدي مجموعة من الحزبين الذين يجتمعون لتقديم هذه التوصيات إلى إطلاق الكثير من المحادثات”.
لا نزال نتنقل بين الأمور المجهولة في لوائح الذكاء الاصطناعي
لقد كانت القمة العالمية للذكاء الاصطناعي خطوة عظيمة إلى الأمام في حماية تطور الذكاء الاصطناعي، كما وافقت ميليسا روزي، مديرة الذكاء الاصطناعي في AppOmni. اللوائح هي المفتاح.
وقالت لـ TechNewsWorld: “ولكن قبل أن نتمكن حتى من التفكير في وضع اللوائح، لا بد من القيام بالكثير من الاستكشاف”.
وأضافت أن هذا هو المكان الذي يعد فيه التعاون بين الشركات في صناعة الذكاء الاصطناعي للانضمام إلى المبادرات المتعلقة بسلامة الذكاء الاصطناعي طوعًا أمرًا بالغ الأهمية.
“إن تحديد العتبات والتدابير الموضوعية هو التحدي الأول الذي يجب استكشافه. قال روزي: “لا أعتقد أننا مستعدون لوضع هذه العناصر بعد في مجال الذكاء الاصطناعي ككل”.
سوف يستغرق الأمر المزيد من التحقيقات والبيانات للنظر في ماهية هذه الأمور. وأضاف روزي أن أحد أكبر التحديات هو أن تواكب لوائح الذكاء الاصطناعي التطورات التكنولوجية دون إعاقتها.
ابدأ بتعريف ضرر الذكاء الاصطناعي
وفقًا لديفيد براوشلر، المستشار الأمني الرئيسي في مجموعة NCC، يجب على الحكومات النظر في تعريفات الضرر كنقطة انطلاق في وضع المبادئ التوجيهية للذكاء الاصطناعي.
ومع تزايد شيوع تكنولوجيا الذكاء الاصطناعي، فقد ينشأ تحول من تصنيف مخاطر الذكاء الاصطناعي انطلاقا من قدرته الحسابية التدريبية. كان هذا المعيار جزءًا من الأمر التنفيذي الأمريكي الأخير.
وبدلاً من ذلك، قد يتجه التحول نحو الضرر الملموس الذي قد يلحقه الذكاء الاصطناعي في سياق التنفيذ. وأشار إلى أن العديد من التشريعات تشير إلى هذا الاحتمال.
وقال براوخلر لـ TechNewsWorld: “على سبيل المثال، يجب أن يتضمن نظام الذكاء الاصطناعي الذي يتحكم في إشارات المرور تدابير سلامة أكثر بكثير من مساعد التسوق، حتى لو كان الأخير يتطلب المزيد من القوة الحسابية للتدريب”.
حتى الآن، لا توجد رؤية واضحة للأولويات التنظيمية لتطوير الذكاء الاصطناعي واستخدامه. وينبغي للحكومات أن تعطي الأولوية للتأثير الحقيقي على الناس في كيفية تنفيذ هذه التكنولوجيات. وأشار إلى أنه لا ينبغي للتشريعات أن تحاول التنبؤ بالمستقبل طويل المدى للتكنولوجيا سريعة التغير.
إذا نشأ خطر قائم من تقنيات الذكاء الاصطناعي، يمكن للحكومات أن تستجيب وفقًا لذلك بمجرد أن تصبح هذه المعلومات ملموسة. وأوضح براوخلر أن محاولات التشريع المسبق لهذه التهديدات من المرجح أن تكون بمثابة رصاصة في الظلام.
وأضاف: “لكن إذا كنا نتطلع إلى منع إلحاق الضرر بالأفراد من خلال التشريعات التي تستهدف التأثير، فلا يتعين علينا التنبؤ بكيفية تغير الذكاء الاصطناعي في الشكل أو الموضة في المستقبل”.
الموازنة بين الرقابة الحكومية والرقابة التشريعية
يرى ثاكر وجود توازن صعب بين السيطرة والرقابة عند تنظيم الذكاء الاصطناعي. ولا ينبغي أن تكون النتيجة خنق الابتكار بقوانين صارمة أو الاعتماد فقط على التنظيم الذاتي للشركة.
“أعتقد أن الإطار التنظيمي الخفيف المقترن بآليات الرقابة عالية الجودة هو الطريق الصحيح. وينبغي للحكومات أن تضع حواجز الحماية وتفرض الامتثال مع السماح بمواصلة التنمية المسؤولة.
يرى ثاكر بعض أوجه التشابه بين الضغط من أجل وضع لوائح تنظيمية للذكاء الاصطناعي والديناميات المحيطة بالأسلحة النووية. وحذر من أن الدول التي تحقق هيمنة الذكاء الاصطناعي يمكن أن تكتسب مزايا اقتصادية وعسكرية كبيرة.
“وهذا يخلق حوافز للدول لتطوير قدرات الذكاء الاصطناعي بسرعة. ومع ذلك، فإن التعاون العالمي في مجال سلامة الذكاء الاصطناعي أصبح أكثر جدوى مما كان عليه مع الأسلحة النووية، حيث لدينا تأثيرات شبكية أكبر مع الإنترنت ووسائل التواصل الاجتماعي.