، مقالات،

مولدات صور الذكاء الاصطناعي تصنع مواد الاعتداء الجنسي على الأطفال (CSAM)


لماذا تقدر قيمة شركات الذكاء الاصطناعي بملايين ومليارات الدولارات لإنشاء وتوزيع الأدوات التي يمكنها إنشاء مواد الاعتداء الجنسي على الأطفال (CSAM) الناتجة عن الذكاء الاصطناعي؟

مولد صور يسمى Stable Diffusion الإصدار 1.5، والذي تم إنشاؤه بواسطة شركة AI Runway بتمويل من Stability AI، كان متورطًا بشكل خاص في إنتاج CSAM. وتستضيف المنصات الشهيرة مثل Hugging Face وCivitai هذا النموذج وغيره من الأشخاص الذين ربما تم تدريبهم على صور حقيقية للاعتداء الجنسي على الأطفال. وفي بعض الحالات، قد تنتهك الشركات القوانين من خلال استضافة مواد CSAM الاصطناعية على خوادمها. ولماذا تضخ الشركات والمستثمرون الرئيسيون مثل Google وNvidia وIntel وSalesforce وAndreesen Horowitz مئات الملايين من الدولارات في هذه الشركات؟ إن دعمهم يرقى إلى مستوى دعم المحتوى المخصص للمتحرشين بالأطفال.

باعتبارنا خبراء في مجال سلامة الذكاء الاصطناعي، كنا نطرح هذه الأسئلة لاستدعاء هذه الشركات والضغط عليها لاتخاذ الإجراءات التصحيحية التي نوضحها أدناه. ويسعدنا اليوم أن نعلن عن انتصار كبير: على ما يبدو ردًا على أسئلتنا، تمت إزالة الإصدار 1.5 من Stable Diffusion من Hugging Face. ولكن لا يزال هناك الكثير مما يتعين القيام به، وقد يتطلب التقدم الهادف تشريعات.

نطاق مشكلة CSAM

بدأ المدافعون عن سلامة الأطفال في دق جرس الإنذار في العام الماضي: نشر باحثون في مرصد الإنترنت بجامعة ستانفورد ومؤسسة ثورن التكنولوجية غير الربحية تقريرًا مثيرًا للقلق في يونيو/حزيران 2023. ووجدوا أن أدوات إنشاء صور الذكاء الاصطناعي “المفتوحة المصدر” المتاحة على نطاق واسع أصبحت متاحة بالفعل على نطاق واسع. يساء استخدامها من قبل الجهات الفاعلة الخبيثة لصنع مواد الاعتداء الجنسي على الأطفال. في بعض الحالات، كان الممثلون السيئون يصنعون نسخهم المخصصة من هذه النماذج (عملية تُعرف باسم الضبط الدقيق) باستخدام مواد حقيقية تتعلق بالاعتداء الجنسي على الأطفال لإنشاء صور مخصصة لضحايا محددين.

في أكتوبر الماضي، قدم تقرير صادر عن مؤسسة مراقبة الإنترنت غير الربحية في المملكة المتحدة (التي تدير خطًا ساخنًا لبلاغات مواد الاعتداء الجنسي على الأطفال) تفصيلًا عن السهولة التي تعمل بها الجهات الفاعلة الخبيثة الآن على إنتاج مواد الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي، على نطاق واسع. قام الباحثون بتضمين دراسة “لقطة” لأحد منتديات CSAM على شبكة الإنترنت المظلمة، حيث قاموا بتحليل أكثر من 11000 صورة تم إنشاؤها بواسطة الذكاء الاصطناعي وتم نشرها في فترة شهر واحد؛ ومن بين هؤلاء، حُكم على ما يقرب من 3000 شخص بالخطورة الكافية لتصنيفهم كمجرمين. وحث التقرير على مراقبة تنظيمية أقوى لنماذج الذكاء الاصطناعي التوليدية.

يمكن استخدام نماذج الذكاء الاصطناعي لإنشاء هذه المواد لأنهم شاهدوا أمثلة من قبل. اكتشف الباحثون في جامعة ستانفورد في ديسمبر الماضي أن إحدى أهم مجموعات البيانات المستخدمة لتدريب نماذج توليد الصور تتضمن آلاف القطع من CSAM. تم تدريب العديد من مولدات صور الذكاء الاصطناعي مفتوحة المصدر الأكثر شيوعًا والقابلة للتنزيل، بما في ذلك نموذج Stable Diffusion الإصدار 1.5 الشهير، باستخدام هذه البيانات. تم إنشاء هذا الإصدار من Stable Diffusion بواسطة Runway، على الرغم من أن Stability AI دفعت مقابل قوة الحوسبة لإنتاج مجموعة البيانات وتدريب النموذج، وأصدر Stability AI الإصدارات اللاحقة.

لم يستجب Runway لطلب التعليق. وأكد متحدث باسم Stability AI أن الشركة لم تطلق الإصدار 1.5 من Stable Diffusion أو تحافظ عليه، ويقول إن الشركة “نفذت ضمانات قوية” ضد CSAM في النماذج اللاحقة، بما في ذلك استخدام مجموعات البيانات المفلترة للتدريب.

في ديسمبر الماضي أيضًا، اكتشف الباحثون في شركة تحليلات وسائل التواصل الاجتماعي Graphika انتشارًا للعشرات من خدمات “التعرية”، يعتمد الكثير منها على مولدات صور مفتوحة المصدر تعمل بالذكاء الاصطناعي، ومن المحتمل أن تتضمن Stable Diffusion. تسمح هذه الخدمات للمستخدمين بتحميل صور بالملابس لأشخاص وإنتاج ما يسميه الخبراء صورًا حميمة غير توافقية (NCII) لكل من القاصرين والبالغين، والتي يشار إليها أحيانًا باسم المواد الإباحية المزيفة بعمق. يمكن العثور على مثل هذه المواقع بسهولة من خلال عمليات بحث Google، ويمكن للمستخدمين الدفع مقابل الخدمات باستخدام بطاقات الائتمان عبر الإنترنت. العديد من هذه الخدمات تعمل فقط على النساء والفتيات، وقد تم استخدام هذه الأنواع من الأدوات لاستهداف المشاهير الإناث مثل تايلور سويفت والسياسيين مثل الممثلة الأمريكية ألكساندريا أوكاسيو كورتيز.

إن CSAM الناتج عن الذكاء الاصطناعي له تأثيرات حقيقية. إن النظام البيئي لسلامة الأطفال مرهق بالفعل، حيث يتم الإبلاغ عن الملايين من ملفات الاعتداء الجنسي على الأطفال المشتبه بها إلى الخطوط الساخنة سنويًا. أي شيء يضيف إلى هذا السيل من المحتوى – وخاصة مواد الإساءة الواقعية – يجعل من الصعب العثور على الأطفال الذين هم في طريق الأذى. ومما يزيد الطين بلة أن بعض الجهات الفاعلة الخبيثة تستخدم مواد الاعتداء الجنسي على الأطفال الحالية لإنشاء صور اصطناعية لهؤلاء الناجين – وهو انتهاك مروع لحقوقهم. ويستخدم آخرون تطبيقات “التعري” المتاحة بسهولة لإنشاء محتوى جنسي من صور حميدة لأطفال حقيقيين، ثم يستخدمون هذا المحتوى الذي تم إنشاؤه حديثًا في مخططات الابتزاز الجنسي.

انتصار واحد ضد أسلحة CSAM التي تم إنشاؤها بواسطة الذكاء الاصطناعي

استنادًا إلى تحقيق جامعة ستانفورد في ديسمبر الماضي، من المعروف في مجتمع الذكاء الاصطناعي أن Stable Diffusion 1.5 تم تدريبه على مواد الاعتداء الجنسي على الأطفال، كما تم تدريب كل نموذج آخر على مجموعة بيانات LAION-5B. يتم إساءة استخدام هذه النماذج بشكل نشط من قبل الجهات الخبيثة لإنشاء CSAM المولد بواسطة الذكاء الاصطناعي. وحتى عندما يتم استخدامها لتوليد مواد أكثر حميدة، فإن استخدامها بطبيعته يؤدي إلى إعادة إيذاء الأطفال الذين دخلت صور إساءة معاملتهم في بيانات التدريب الخاصة بهم. لذلك سألنا منصات استضافة الذكاء الاصطناعي الشهيرة Hugging Face وCivitai عن سبب استضافة Stable Diffusion 1.5 والنماذج المشتقة منها، مما يجعلها متاحة للتنزيل المجاني؟

ومن الجدير بالذكر أن جيف ألين، عالم البيانات في معهد Integrity، وجد أنه تم تنزيل Stable Diffusion 1.5 من Hugging Face أكثر من 6 ملايين مرة في الشهر الماضي، مما يجعله منشئ صور الذكاء الاصطناعي الأكثر شعبية على المنصة.

عندما سألنا Hugging Face عن سبب استمرارها في استضافة النموذج، لم تجب المتحدثة باسم الشركة Brigitte Tousignant على السؤال بشكل مباشر، ولكنها ذكرت بدلاً من ذلك أن الشركة لا تتسامح مع CSAM على نظامها الأساسي، وأنها تتضمن مجموعة متنوعة من أدوات السلامة، و أنه يشجع المجتمع على استخدام نموذج Safe Stable Diffusion الذي يحدد الصور غير اللائقة ويمنعها.

ثم، بالأمس، قمنا بفحص Hugging Face ووجدنا أن Stable Diffusion 1.5 لم يعد متاحًا. أخبرنا Tousignant أن Hugging Face لم يقم بإزالته، واقترح علينا الاتصال بـ Runway – وهو ما فعلناه مرة أخرى، ولكننا لم نتلق ردًا بعد.

إنه بلا شك نجاح لأن هذا النموذج لم يعد متاحًا للتنزيل من Hugging Face. لسوء الحظ، لا يزال متاحًا في Civitai، وكذلك مئات النماذج المشتقة. عندما اتصلنا بشركة Civitai، أخبرنا متحدث باسم الشركة أنهم ليس لديهم معرفة ببيانات التدريب التي استخدمها Stable Diffusion 1.5، وأنهم لن يقوموا بإزالتها إلا إذا كان هناك دليل على سوء الاستخدام.

يجب أن تشعر المنصات بالتوتر بشأن مسؤوليتها. شهد الأسبوع الماضي اعتقال بافيل دوروف، الرئيس التنفيذي لتطبيق المراسلة Telegram، كجزء من تحقيق يتعلق بجرائم CSAM وجرائم أخرى.

ما الذي يتم فعله بشأن CSAM الناتج عن الذكاء الاصطناعي؟

لم يتوقف قرع الطبول المستمر للتقارير والأخبار المزعجة حول CSAM وNCII الناتجة عن الذكاء الاصطناعي. في حين تحاول بعض الشركات تحسين سلامة منتجاتها بمساعدة تحالف التكنولوجيا، ما هو التقدم الذي شهدناه في هذه القضية الأوسع؟

في أبريل، أعلنت Thorn وAll Tech Is Human عن مبادرة للجمع بين شركات التكنولوجيا الرئيسية ومطوري الذكاء الاصطناعي ومنصات استضافة النماذج والمزيد لتحديد مبادئ السلامة حسب التصميم والالتزام بها، والتي تضع منع الاعتداء الجنسي على الأطفال في مركز اهتماماتها. عملية تطوير المنتج. التزمت عشر شركات (بما في ذلك Amazon، وCivitai، وGoogle، وMeta، وMicrosoft، وOpenAI، وStability AI) بهذه المبادئ، وانضمت العديد من الشركات الأخرى للمشاركة في تأليف ورقة بحثية ذات صلة تحتوي على إجراءات تخفيف أكثر تفصيلاً موصى بها. وتدعو المبادئ الشركات إلى تطوير ونشر وصيانة نماذج الذكاء الاصطناعي التي تعالج بشكل استباقي المخاطر التي تهدد سلامة الأطفال؛ لبناء أنظمة لضمان اكتشاف أي مواد إساءة يتم إنتاجها بشكل موثوق؛ والحد من توزيع النماذج والخدمات الأساسية المستخدمة لجعل مواد إساءة الاستخدام هذه.

هذه الأنواع من الالتزامات الطوعية هي البداية. تقول ريبيكا بورتنوف، رئيسة قسم علوم البيانات في ثورن، إن المبادرة تسعى إلى المساءلة من خلال مطالبة الشركات بإصدار تقارير حول التقدم الذي أحرزته في خطوات التخفيف. كما أنها تتعاون أيضًا مع مؤسسات وضع المعايير مثل IEEE وNIST لدمج جهودها في المعايير الجديدة والحالية، مما يفتح الباب أمام عمليات تدقيق من طرف ثالث من شأنها “تجاوز نظام الشرف”، كما يقول بورتنوف. ويشير بورتنوف أيضًا إلى أن ثورن يتعاون مع صانعي السياسات لمساعدتهم على تصور التشريعات التي قد تكون مجدية ومؤثرة من الناحية الفنية. وفي الواقع، يقول العديد من الخبراء أن الوقت قد حان لتجاوز الالتزامات الطوعية.

نعتقد أن هناك سباقًا متهورًا نحو القاع يجري حاليًا في صناعة الذكاء الاصطناعي. الشركات تقاتل بشدة من أجل أن تكون من الناحية الفنية في المقدمة أن الكثير منهم يتجاهلون أخلاقية وربما حتى قانوني عواقب منتجاتها. في حين أن بعض الحكومات – بما في ذلك الاتحاد الأوروبي – تحرز تقدما في تنظيم الذكاء الاصطناعي، إلا أنها لم تقطع شوطا طويلا. على سبيل المثال، إذا كانت القوانين تجعل من غير القانوني توفير أنظمة الذكاء الاصطناعي التي يمكنها إنتاج CSAM، فقد تنتبه شركات التكنولوجيا.

والحقيقة هي أنه في حين أن بعض الشركات سوف تلتزم بالالتزامات الطوعية، فإن العديد منها لن تفعل ذلك. ومن بين الشركات التي تفعل ذلك، فإن الكثيرين منهم سيتخذون الإجراءات ببطء شديد، إما لأنهم غير مستعدين أو لأنهم يكافحون من أجل الحفاظ على ميزتهم التنافسية. وفي غضون ذلك، سوف تنجذب الجهات الفاعلة الخبيثة إلى تلك الخدمات وتعيث فسادًا. وتلك النتيجة غير مقبولة.

ما الذي يجب على شركات التكنولوجيا فعله بشأن الاعتداءات الجنسية التي ينشئها الذكاء الاصطناعي؟

رأى الخبراء أن هذه المشكلة تأتي من مسافة ميل واحد، وأوصى المدافعون عن سلامة الأطفال باستراتيجيات منطقية لمكافحتها. إذا ضيعنا هذه الفرصة لفعل شيء لإصلاح الوضع، فسنتحمل المسؤولية جميعا. كحد أدنى، يجب أن تكون جميع الشركات، بما في ذلك تلك التي تطلق نماذج مفتوحة المصدر، مطالبة قانونًا باتباع الالتزامات المنصوص عليها في مبادئ Thorn’s Safety by Design:

  • اكتشاف وإزالة والإبلاغ عن CSAM من مجموعات بيانات التدريب الخاصة بهم قبل تدريب نماذج الذكاء الاصطناعي التوليدية الخاصة بهم.
  • دمج علامات مائية قوية و أنظمة مصدر المحتوى في نماذج الذكاء الاصطناعي التوليدية الخاصة بهم بحيث يمكن ربط الصور التي تم إنشاؤها بالنماذج التي أنشأتها، كما هو مطلوب بموجب مشروع قانون كاليفورنيا الذي من شأنه أن يخلق معايير مصدر المحتوى الرقمي للشركات التي تمارس الأعمال التجارية في الدولة. ومن المرجح أن يتم طرح مشروع القانون للتوقيع المأمول من قبل الحاكم جافين نيوسون في الشهر المقبل.
  • قم بإزالة أي نماذج ذكاء اصطناعي منتجة من منصاتها ومن المعروف أنها مدربة على CSAM أو قادرة على إنتاج CSAM. ارفض إعادة استضافة هذه النماذج ما لم يتم إعادة تشكيلها بالكامل مع إزالة CSAM.
  • تحديد النماذج التي تم ضبطها بشكل مقصود على CSAM وإزالتها نهائيًا من منصاتها.
  • قم بإزالة تطبيقات “التعرية” من متاجر التطبيقات، وحظر نتائج البحث لهذه الأدوات والخدمات، والعمل مع موفري خدمات الدفع لمنع المدفوعات لمنشئيها.

لا يوجد سبب يجعل الذكاء الاصطناعي التوليدي يحتاج إلى المساعدة والتحريض على الإساءة المروعة للأطفال. ولكننا سوف نحتاج إلى كل الأدوات المتاحة ــ الالتزامات الطوعية، والتنظيم، والضغوط العامة ــ لتغيير المسار ووقف السباق نحو القاع.

المؤلفون أشكر ريبيكا بورتنوف من ثورن, ديفيد ثيل مرصد ستانفورد للإنترنت, جيف ألين معهد النزاهة, رافيت دوتان من TechBetter، وباحث سياسات التكنولوجيا أوين دويل لمساعدتهم في هذه المقالة.

من مقالات موقعك

مقالات ذات صلة حول الويب

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى