، مقالات،

أخطاء الذكاء الاصطناعي قد تؤدي إلى زعزعة السلام والأمن العالميين



هذه مشاركة ضيف. الآراء الواردة هنا هي فقط آراء المؤلفين ولا تمثل مواقف IEEE Spectrum, المعهد, أو IEEE.

لا يبدو أن الكثيرين في مجتمع الذكاء الاصطناعي المدني يدركون أن ابتكارات الذكاء الاصطناعي اليوم يمكن أن يكون لها عواقب وخيمة على السلام والأمن الدوليين. ومع ذلك، يمكن لممارسي الذكاء الاصطناعي – سواء كانوا باحثين أو مهندسين أو مطوري المنتجات أو مديري الصناعة – أن يلعبوا أدوارًا حاسمة في تخفيف المخاطر من خلال القرارات التي يتخذونها طوال دورة حياة تقنيات الذكاء الاصطناعي.

هناك مجموعة من الطرق التي يمكن من خلالها للتقدم المدني في الذكاء الاصطناعي أن يهدد السلام والأمن. وبعضها مباشر، مثل استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لخلق معلومات مضللة لعمليات التأثير السياسي. ويمكن أيضًا استخدام نماذج لغوية كبيرة لإنشاء تعليمات برمجية للهجمات الإلكترونية وتسهيل تطوير وإنتاج الأسلحة البيولوجية.

هناك طرق أخرى غير مباشرة. إن القرارات التي تتخذها شركات الذكاء الاصطناعي بشأن جعل برامجها مفتوحة المصدر، وفي أي ظروف، على سبيل المثال، لها آثار جيوسياسية. تحدد مثل هذه القرارات كيفية وصول الدول أو الجهات الفاعلة غير الحكومية إلى التكنولوجيا الحيوية، والتي قد تستخدمها لتطوير تطبيقات الذكاء الاصطناعي العسكرية، بما في ذلك أنظمة الأسلحة المستقلة.

ويتعين على شركات الذكاء الاصطناعي والباحثين أن يصبحوا أكثر وعياً بالتحديات، وبقدرتهم على القيام بشيء حيالها.

يجب أن يبدأ التغيير بتعليم ممارسي الذكاء الاصطناعي وتطويرهم الوظيفي. من الناحية الفنية، هناك العديد من الخيارات في مجموعة أدوات الابتكار المسؤول التي يمكن لباحثي الذكاء الاصطناعي استخدامها لتحديد المخاطر التي يمثلها عملهم والتخفيف من حدتها. ويجب منحهم الفرص للتعرف على مثل هذه الخيارات بما في ذلك IEEE 7010: الممارسة الموصى بها لتقييم تأثير الأنظمة المستقلة والذكية على رفاهية الإنسان، IEEE 7007-2021: المعيار الوجودي للروبوتات وأنظمة الأتمتة المدفوعة أخلاقياً، والمعهد الوطني إطار عمل إدارة مخاطر الذكاء الاصطناعي للمعايير والتكنولوجيا.

وإذا وفرت برامج التعليم معرفة أساسية حول التأثير المجتمعي للتكنولوجيا والطريقة التي تعمل بها حوكمة التكنولوجيا، فسيتم تمكين ممارسي الذكاء الاصطناعي بشكل أفضل من الابتكار بشكل مسؤول وأن يكونوا مصممين ومنفذين للوائح التنظيمية.

ما الذي يحتاج إلى التغيير في تعليم الذكاء الاصطناعي؟

يتطلب الذكاء الاصطناعي المسؤول مجموعة من القدرات التي لا يتم تغطيتها عادةً في تعليم الذكاء الاصطناعي. لا ينبغي لنا أن نتعامل مع الذكاء الاصطناعي باعتباره تخصصًا خالصًا في العلوم والتكنولوجيا والهندسة والرياضيات، بل باعتباره نظامًا متعدد التخصصات يتطلب معرفة تقنية، نعم، ولكن أيضًا رؤى من العلوم الاجتماعية والإنسانية. وينبغي أن تكون هناك دورات إلزامية حول التأثير المجتمعي للتكنولوجيا والابتكار المسؤول، فضلا عن تدريب محدد على أخلاقيات الذكاء الاصطناعي والحوكمة.

يجب أن تكون هذه المواضيع جزءًا من المنهج الأساسي في كل من المرحلة الجامعية والدراسات العليا في جميع الجامعات التي تقدم درجات الذكاء الاصطناعي.

إذا وفرت برامج التعليم المعرفة الأساسية حول التأثير المجتمعي للتكنولوجيا والطريقة التي تعمل بها حوكمة التكنولوجيا، فسيتم تمكين ممارسي الذكاء الاصطناعي من الابتكار بشكل مسؤول وأن يكونوا مصممين ومنفذين هادفين للوائح الذكاء الاصطناعي.

إن تغيير منهج تعليم الذكاء الاصطناعي ليس بالمهمة السهلة. وفي بعض البلدان، تتطلب التعديلات على المناهج الجامعية موافقة على مستوى الوزارة. يمكن أن تواجه التغييرات المقترحة مقاومة داخلية لأسباب ثقافية أو بيروقراطية أو مالية. وفي الوقت نفسه، قد تكون خبرة المعلمين الحاليين في المواضيع الجديدة محدودة.

ومع ذلك، يقدم عدد متزايد من الجامعات الآن الموضوعات كمقررات اختيارية، بما في ذلك جامعة هارفارد، وجامعة نيويورك، وجامعة السوربون، وجامعة أوميو، وجامعة هلسنكي.

ليست هناك حاجة لنموذج تعليمي واحد يناسب الجميع، ولكن هناك بالتأكيد حاجة للتمويل لتوظيف أعضاء هيئة التدريس المتفانين وتدريبهم.

إضافة الذكاء الاصطناعي المسؤول إلى التعلم مدى الحياة

يجب على مجتمع الذكاء الاصطناعي تطوير دورات التعليم المستمر حول التأثير المجتمعي لأبحاث الذكاء الاصطناعي حتى يتمكن الممارسون من مواصلة التعلم حول مثل هذه المواضيع طوال حياتهم المهنية.

من المحتم أن يتطور الذكاء الاصطناعي بطرق غير متوقعة. وسيتطلب تحديد مخاطرها والتخفيف من حدتها مناقشات مستمرة لا تشمل الباحثين والمطورين فحسب، بل أيضًا الأشخاص الذين قد يتأثرون باستخدامها بشكل مباشر أو غير مباشر. ومن شأن برنامج التعليم المستمر الشامل أن يستمد رؤى من جميع أصحاب المصلحة.

لدى بعض الجامعات والشركات الخاصة بالفعل مجالس مراجعة أخلاقية وفرق سياسات تعمل على تقييم تأثير أدوات الذكاء الاصطناعي. على الرغم من أن ولاية الفرق عادة لا تشمل التدريب، إلا أنه يمكن توسيع واجباتهم لجعل الدورات التدريبية متاحة للجميع داخل المنظمة. لا ينبغي أن يكون التدريب على الأبحاث المسؤولة في مجال الذكاء الاصطناعي مسألة ذات اهتمام فردي؛ ينبغي تشجيعه.

يمكن لمنظمات مثل IEEE ورابطة آلات الحوسبة أن تلعب أدوارًا مهمة في إنشاء دورات التعليم المستمر لأنها في وضع جيد لتجميع المعلومات وتسهيل الحوار، مما قد يؤدي إلى إنشاء معايير أخلاقية.

الانخراط مع العالم الأوسع

نحتاج أيضًا إلى ممارسي الذكاء الاصطناعي لتبادل المعرفة وإثارة المناقشات حول المخاطر المحتملة التي تتجاوز حدود مجتمع أبحاث الذكاء الاصطناعي.

ولحسن الحظ، هناك بالفعل العديد من المجموعات على وسائل التواصل الاجتماعي التي تناقش بنشاط مخاطر الذكاء الاصطناعي، بما في ذلك إساءة استخدام التكنولوجيا المدنية من قبل الجهات الحكومية وغير الحكومية. هناك أيضًا منظمات متخصصة تركز على الذكاء الاصطناعي المسؤول وتنظر في الآثار الجيوسياسية والأمنية لأبحاث الذكاء الاصطناعي والابتكار. وهي تشمل معهد الذكاء الاصطناعي الآن، ومركز حوكمة الذكاء الاصطناعي والبيانات والمجتمع، ومعهد أبحاث الذكاء الاصطناعي الموزع، ومعهد مونتريال لأخلاقيات الذكاء الاصطناعي، والشراكة في مجال الذكاء الاصطناعي.

ومع ذلك، فإن هذه المجتمعات في الوقت الحالي صغيرة للغاية وغير متنوعة بما فيه الكفاية، حيث أن أبرز أعضائها يتقاسمون عادة خلفيات مماثلة. إن افتقارهم إلى التنوع يمكن أن يدفع المجموعات إلى تجاهل المخاطر التي تؤثر على السكان ناقصي التمثيل.

علاوة على ذلك، قد يحتاج ممارسون الذكاء الاصطناعي إلى المساعدة والتوجيه في كيفية التعامل مع الأشخاص خارج مجتمع أبحاث الذكاء الاصطناعي، وخاصة مع صناع السياسات. يعد توضيح المشكلات أو التوصيات بطرق يمكن للأفراد غير التقنيين فهمها مهارة ضرورية.

ويتعين علينا أن نجد سبلاً لتنمية المجتمعات الحالية، وجعلها أكثر تنوعاً وشمولاً، وجعلها أفضل في التعامل مع بقية المجتمع. يمكن للمنظمات المهنية الكبيرة مثل IEEE وACM أن تساعد، ربما من خلال إنشاء مجموعات عمل مخصصة من الخبراء أو إعداد مسارات في مؤتمرات الذكاء الاصطناعي.

يمكن للجامعات والقطاع الخاص أيضًا المساعدة من خلال إنشاء أو توسيع المناصب والأقسام التي تركز على التأثير المجتمعي للذكاء الاصطناعي وحوكمة الذكاء الاصطناعي. أنشأت جامعة أوميا مؤخرًا مختبرًا لسياسات الذكاء الاصطناعي لمعالجة هذه المشكلات. أنشأت الشركات بما في ذلك Anthropic وGoogle وMeta وOpenAI أقسامًا أو وحدات مخصصة لمثل هذه المواضيع.

هناك حركات متنامية حول العالم لتنظيم الذكاء الاصطناعي. وتشمل التطورات الأخيرة إنشاء هيئة الأمم المتحدة الاستشارية رفيعة المستوى المعنية بالذكاء الاصطناعي واللجنة العالمية المعنية بالذكاء الاصطناعي المسؤول في المجال العسكري. وأصدر زعماء مجموعة السبع بيانا بشأن عملية هيروشيما للذكاء الاصطناعي، واستضافت الحكومة البريطانية أول قمة لسلامة الذكاء الاصطناعي في العام الماضي.

والسؤال المركزي المطروح أمام الهيئات التنظيمية هو ما إذا كان من الممكن الوثوق بالباحثين والشركات في مجال الذكاء الاصطناعي لتطوير التكنولوجيا بشكل مسؤول.

ومن وجهة نظرنا، فإن إحدى الطرق الأكثر فعالية واستدامة لضمان تحمل مطوري الذكاء الاصطناعي المسؤولية عن المخاطر هي الاستثمار في التعليم. يجب أن يتمتع الممارسون اليوم وغدًا بالمعرفة والوسائل الأساسية لمعالجة المخاطر الناجمة عن عملهم إذا أرادوا أن يصبحوا مصممين ومنفذين فعالين للوائح الذكاء الاصطناعي المستقبلية.

مفكرة: يتم سرد المؤلفين حسب مستوى المساهمات. تم جمع المؤلفين بمبادرة من مكتب الأمم المتحدة لشؤون نزع السلاح و ال معهد ستوكهولم الدولي لأبحاث السلام تم إطلاقه بدعم من مبادرة الاتحاد الأوروبي بشأن الابتكار المسؤول في الذكاء الاصطناعي من أجل السلام والأمن الدوليين.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى