، مقالات،

يساعد دليل IEEE-USA الجديد الشركات على التغلب على مخاطر الذكاء الاصطناعي



تدرك المنظمات التي تطور أو تنشر أنظمة الذكاء الاصطناعي أن استخدام الذكاء الاصطناعي ينطوي على مجموعة متنوعة من المخاطر بما في ذلك العواقب القانونية والتنظيمية، والضرر المحتمل على السمعة، والقضايا الأخلاقية مثل التحيز وانعدام الشفافية. وهم يدركون أيضًا أنه من خلال الحكم الرشيد، يمكنهم التخفيف من المخاطر وضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول. وتشمل الأهداف ضمان أن تكون الأنظمة عادلة وشفافة وخاضعة للمساءلة ومفيدة للمجتمع.

حتى المنظمات التي تسعى إلى تحقيق ذكاء اصطناعي مسؤول تكافح من أجل تقييم ما إذا كانت تحقق أهدافها. ولهذا السبب نشرت لجنة سياسات الذكاء الاصطناعي التابعة لـ IEEE-USA “نموذج النضج المرن لحوكمة الذكاء الاصطناعي استنادًا إلى إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع لـ NIST”، والذي يساعد المؤسسات على تقييم وتتبع التقدم الذي تحرزه. يعتمد نموذج النضج على الإرشادات المنصوص عليها في إطار إدارة مخاطر الذكاء الاصطناعي (RMF) التابع للمعهد الوطني الأمريكي للمعايير والتكنولوجيا ووثائق NIST الأخرى.

البناء على عمل NIST

تصف RMF الخاصة بـ NIST، وهي وثيقة تحظى باحترام كبير حول حوكمة الذكاء الاصطناعي، أفضل الممارسات لإدارة مخاطر الذكاء الاصطناعي. لكن الإطار لا يوفر إرشادات محددة حول كيفية تطور المؤسسات نحو أفضل الممارسات التي يحددها، كما أنه لا يقترح كيف يمكن للمؤسسات تقييم مدى اتباعها للإرشادات. ولذلك قد تواجه المنظمات أسئلة حول كيفية تنفيذ إطار العمل. علاوة على ذلك، قد يجد أصحاب المصلحة الخارجيون، بما في ذلك المستثمرين والمستهلكين، صعوبة في استخدام الوثيقة لتقييم ممارسات مزود الذكاء الاصطناعي.

يكمل نموذج النضج الجديد IEEE-USA إطار RMF، مما يمكّن المؤسسات من تحديد المرحلة الخاصة بها خلال رحلة حوكمة الذكاء الاصطناعي المسؤولة، وتتبع التقدم الذي تحرزه، وإنشاء خريطة طريق للتحسين. نماذج النضج هي أدوات لقياس درجة مشاركة المنظمة أو امتثالها لمعايير فنية وقدرتها على التحسين المستمر في تخصص معين. استخدمت المنظمات هذه النماذج منذ الثمانينيات لمساعدتها على تقييم وتطوير القدرات المعقدة.

تتمحور أنشطة الإطار حول الركائز الأربع لإطار عمل RMF، والتي تتيح الحوار والتفاهم والأنشطة لإدارة مخاطر الذكاء الاصطناعي ومسؤوليته في تطوير أنظمة ذكاء اصطناعي جديرة بالثقة. الركائز هي:

  • الخريطة: يتم التعرف على السياق، ويتم تحديد المخاطر المتعلقة بالسياق.
  • القياس: يتم تقييم المخاطر المحددة أو تحليلها أو تتبعها.
  • الإدارة: يتم تحديد أولويات المخاطر والتصرف بناءً عليها بناءً على التأثير المتوقع.
  • الإدارة: ثقافة إدارة المخاطر مزروعة وحاضرة.

استبيان مرن

أساس نموذج النضج IEEE-USA هو استبيان مرن يعتمد على RMF. يحتوي الاستبيان على قائمة من البيانات، يغطي كل منها واحدًا أو أكثر من أنشطة إطار تحقيق النتائج الموصى بها. على سبيل المثال، أحد العبارات هو: “نحن نقوم بتقييم وتوثيق قضايا التحيز والعدالة التي تسببها أنظمة الذكاء الاصطناعي لدينا”. تركز البيانات على إجراءات ملموسة يمكن التحقق منها يمكن للشركات القيام بها مع تجنب البيانات العامة والمجردة مثل “أنظمة الذكاء الاصطناعي لدينا عادلة”.

يتم تنظيم البيانات في موضوعات تتوافق مع ركائز RFM. يتم تنظيم المواضيع، بدورها، في مراحل دورة حياة تطوير الذكاء الاصطناعي، كما هو موضح في إطار RMF: التخطيط والتصميم، وجمع البيانات وبناء النماذج، والنشر. يمكن للمقيم الذي يقوم بتقييم نظام الذكاء الاصطناعي في مرحلة معينة أن يفحص بسهولة الموضوعات ذات الصلة فقط.

المبادئ التوجيهية للتسجيل

يتضمن نموذج النضج إرشادات التسجيل هذه، والتي تعكس المثل العليا المنصوص عليها في RMF:

  • المتانة، وتمتد من التنفيذ المخصص إلى التنفيذ المنهجي للأنشطة.
  • التغطية،تتراوح من عدم المشاركة في أي من الأنشطة إلى المشاركة فيها جميعًا.
  • تنوع المدخلات، تتراوح منوجود أنشطة مستنيرة بمدخلات من فريق واحد إلى مدخلات متنوعة من أصحاب المصلحة الداخليين والخارجيين.

يمكن للمقيمين اختيار تقييم البيانات الفردية أو الموضوعات الأكبر، وبالتالي التحكم في مستوى دقة التقييم. بالإضافة إلى ذلك، يتعين على المقيمين تقديم أدلة وثائقية لشرح الدرجات المخصصة لهم. يمكن أن تشمل الأدلة وثائق الشركة الداخلية مثل أدلة الإجراءات، فضلا عن التقارير السنوية والمقالات الإخبارية وغيرها من المواد الخارجية.

بعد تسجيل البيانات أو المواضيع الفردية، يقوم المقيِّمون بتجميع النتائج للحصول على الدرجة الإجمالية. يسمح نموذج النضج بالمرونة، اعتمادًا على اهتمامات المُقيم. على سبيل المثال، يمكن تجميع الدرجات من خلال ركائز NIST، مما يؤدي إلى إنتاج درجات لوظائف “الخريطة” و”القياس” و”الإدارة” و”الحوكمة”.

عند استخدامه داخليًا، يمكن لنموذج النضج أن يساعد المؤسسات في تحديد موقفها من الذكاء الاصطناعي المسؤول ويمكنه تحديد الخطوات اللازمة لتحسين حوكمتها.

يمكن أن يكشف التجميع عن نقاط الضعف المنهجية في نهج المنظمة تجاه مسؤولية الذكاء الاصطناعي. إذا كانت درجة الشركة مرتفعة بالنسبة للأنشطة “المدارة” ولكنها منخفضة بالنسبة للركائز الأخرى، على سبيل المثال، فقد تكون بصدد إنشاء سياسات سليمة لا يتم تنفيذها.

هناك خيار آخر لتسجيل النقاط وهو تجميع الأرقام حسب بعض أبعاد مسؤولية الذكاء الاصطناعي التي أبرزها إطار تحقيق النتائج: الأداء، والعدالة، والخصوصية، والبيئة، والشفافية، والأمن، وقابلية التفسير، والسلامة، والطرف الثالث (الملكية الفكرية وحقوق التأليف والنشر). يمكن أن تساعد طريقة التجميع هذه في تحديد ما إذا كانت المؤسسات تتجاهل مشكلات معينة. على سبيل المثال، قد تتباهى بعض المؤسسات بمسؤوليتها في مجال الذكاء الاصطناعي بناءً على نشاطها في عدد قليل من مجالات المخاطر مع تجاهل الفئات الأخرى.

الطريق نحو اتخاذ قرارات أفضل

عند استخدامه داخليًا، يمكن لنموذج النضج أن يساعد المؤسسات في تحديد موقفها من الذكاء الاصطناعي المسؤول ويمكنه تحديد الخطوات اللازمة لتحسين حوكمتها. يمكّن النموذج الشركات من تحديد الأهداف وتتبع التقدم الذي تحرزه من خلال التقييمات المتكررة. يمكن للمستثمرين والمشترين والمستهلكين وغيرهم من أصحاب المصلحة الخارجيين استخدام النموذج لتوجيه القرارات المتعلقة بالشركة ومنتجاتها.

عند استخدامه من قبل أصحاب المصلحة الداخليين أو الخارجيين، يمكن لنموذج النضج الجديد IEEE-USA أن يكمل NIST AI RMF ويساعد في تتبع تقدم المؤسسة على طريق الحوكمة المسؤولة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى