IBM’s Francesca Rossi على أخلاقيات الذكاء الاصطناعي: رؤى للمهندسين

بصفتي عالم كمبيوتر تم غمره في أخلاقيات الذكاء الاصطناعي منذ حوالي عقد من الزمن ، فقد شاهدت بشكل مباشر كيف تطور الحقل. اليوم ، يجد عدد متزايد من المهندسين أنفسهم يطورون حلول الذكاء الاصطناعى أثناء التنقل في الاعتبارات الأخلاقية المعقدة. إلى جانب الخبرة التقنية ، يتطلب نشر الذكاء الاصطناعى المسؤول فهمًا دقيقًا للآثار الأخلاقية.
في دوري كقائد عالمي لـ IBM AI Ethics ، لاحظت تحولًا كبيرًا في كيفية عمل مهندسي الذكاء الاصطناعى. لم يعودوا يتحدثون فقط إلى مهندسي الذكاء الاصطناعي الآخرين حول كيفية بناء التكنولوجيا. الآن يحتاجون إلى التعامل مع أولئك الذين يفهمون كيف ستؤثر إبداعاتهم على المجتمعات التي تستخدم هذه الخدمات. منذ عدة سنوات في IBM ، أدركنا أن مهندسي الذكاء الاصطناعى يحتاجون إلى دمج خطوات إضافية في عملية التطوير الخاصة بهم ، التقنية والإدارية. لقد أنشأنا كتاب Playbook الذي يوفر الأدوات المناسبة لاختبار مشكلات مثل التحيز والخصوصية. لكن فهم كيفية استخدام هذه الأدوات بشكل صحيح أمر بالغ الأهمية. على سبيل المثال ، هناك العديد من التعريفات المختلفة للإنصاف في الذكاء الاصطناعي. يتطلب تحديد التعريف الذي ينطبق التشاور مع المجتمع المتأثر والعملاء والمستخدمين النهائيين.
في دورها في IBM ، تقوم Francesca Rossi Cochshies مجلس أخلاقيات الذكاء الاصطناعي للشركة بالمساعدة في تحديد مبادئها الأساسية وعملياتها الداخلية. فرانشيسكا روسي
يلعب التعليم دورًا حيويًا في هذه العملية. عند تجربة كتاب ألعاب AI Ethics مع فرق هندسة الذكاء الاصطناعي ، اعتقد فريق واحد أن مشروعهم كان خاليًا من المخاوف المتعلقة بالتحيز لأنه لم يشمل متغيرات محمية مثل العرق أو الجنس. لم يدركوا أن الميزات الأخرى ، مثل الرمز البريدي ، يمكن أن تكون بمثابة الوكلاء المرتبطين بالمتغيرات المحمية. يعتقد المهندسون في بعض الأحيان أنه يمكن حل المشكلات التكنولوجية من خلال الحلول التكنولوجية. على الرغم من أن أدوات البرمجيات مفيدة ، إلا أنها مجرد بداية. يكمن التحدي الأكبر في تعلم التواصل والتعاون بفعالية مع أصحاب المصلحة المتنوعين.
قد يخلق الضغط لإصدار منتجات وأدوات AI الجديدة بسرعة توترًا مع تقييم أخلاقي شامل. لهذا السبب أنشأنا حوكمة أخلاقيات الذكاء الاصطناعي المركزية من خلال مجلس أخلاقيات الذكاء الاصطناعي في IBM. في كثير من الأحيان ، تواجه فرق المشروع الفردية المواعيد النهائية والنتائج الفصلية ، مما يجعل من الصعب عليهم النظر تمامًا في تأثيرات أوسع على السمعة أو ثقة العميل. يجب أن تكون المبادئ والعمليات الداخلية مركزية. يطلب عملاؤنا – شركات أخرى – حلولًا لا تحترم قيمًا معينة. بالإضافة إلى ذلك ، تنص اللوائح في بعض المناطق الآن على اعتبارات أخلاقية. حتى مؤتمرات الذكاء الاصطناعي الرئيسية تتطلب أوراقًا لمناقشة الآثار الأخلاقية للبحث ، ودفع باحثو الذكاء الاصطناعى إلى النظر في تأثير عملهم.
في IBM ، بدأنا بتطوير الأدوات التي تركز على القضايا الرئيسية مثل الخصوصية والقدرة على التوضيح والإنصاف والشفافية. لكل مصدر قلق ، أنشأنا مجموعة أدوات مفتوحة المصدر مع إرشادات ودروس تعليمية من التعليمات البرمجية لمساعدة المهندسين على تنفيذها بفعالية. ولكن مع تطور التكنولوجيا ، وكذلك التحديات الأخلاقية. مع الذكاء الاصطناعى التوليدي ، على سبيل المثال ، نواجه مخاوف جديدة بشأن إنشاء المحتوى المحتمل أو العنيف ، وكذلك الهلوسة. كجزء من نماذج عائلة IBM ، قمنا بتطوير نماذج حماية تقوم بتقييم كل من مطالبات الإدخال والمخرجات لقضايا مثل الواقعية والمحتوى الضار. هذه القدرات النموذجية تخدم كل من احتياجاتنا الداخلية وتلبية احتياجات عملائنا.
على الرغم من أن أدوات البرمجيات مفيدة ، إلا أنها مجرد بداية. يكمن التحدي الأكبر في تعلم التواصل والتعاون بفعالية.
يجب أن تظل هياكل حوكمة الشركة رشيقة بما يكفي للتكيف مع التطور التكنولوجي. نحن نقيم باستمرار كيف يمكن للتطورات الجديدة مثل الذكاء الاصطناعي و AICEC AI أن تضخّم أو يقلل من مخاطر معينة. عند إصدار النماذج كمصدر مفتوح ، نقوم بتقييم ما إذا كان هذا يقدم مخاطر جديدة وما هي الضمانات المطلوبة.
بالنسبة لحلول الذكاء الاصطناعي التي ترفع الأعلام الحمراء الأخلاقية ، لدينا عملية مراجعة داخلية قد تؤدي إلى تعديلات. يمتد تقييمنا إلى ما وراء خصائص التكنولوجيا (الإنصاف ، والشرح ، والخصوصية) إلى كيفية نشرها. يمكن أن يحترم النشر كرامة الإنسان ووكالة أو يقوضها. نقوم بإجراء تقييمات للمخاطر لكل حالة استخدام تقنية ، مع إدراك أن فهم المخاطر يتطلب معرفة السياق الذي ستعمل فيه التكنولوجيا. يتماشى هذا النهج مع إطار قانون الذكاء الاصطناعى الأوروبي – إنه ليس أن الذكاء الاصطناعى التوليدي أو التعلم الآلي محفوف بالمخاطر بطبيعته ، لكن بعض السيناريوهات قد تكون عالية أو منخفضة. حالات الاستخدام المعرضة للخطر تتطلب تدقيقًا إضافيًا.
في هذا المشهد المتطور بسرعة ، تتطلب هندسة الذكاء الاصطناعى المسؤولة اليقظة المستمرة ، والقدرة على التكيف ، والالتزام بالمبادئ الأخلاقية التي تضع الرفاهية البشرية في مركز الابتكار التكنولوجي.
من مقالات موقعك
المقالات ذات الصلة حول الويب




