، مقالات،

OpenAI وGoogleDeepMind وMeta يحصلون على درجات سيئة في سلامة الذكاء الاصطناعي



قام مؤشر سلامة الذكاء الاصطناعي الذي تم إصداره للتو بتصنيف ست شركات رائدة في مجال الذكاء الاصطناعي على جهودها في تقييم المخاطر وإجراءات السلامة… وكانت شركة Anthropic هي الأولى في فئتها، حيث حصلت على درجة إجمالية C. أما الشركات الخمس الأخرى – Google DeepMind، وMeta، وOpenAI، xAI وZhipu AI – حصلوا على درجات D+ أو أقل، مع فشل Meta بشكل كامل.

يقول ماكس تيجمارك، أستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا ورئيس معهد مستقبل الحياة، الذي وضع التقرير: “الغرض من هذا ليس عار أي شخص”. “إنها تقديم حوافز للشركات من أجل التحسن.” ويأمل أن ينظر المسؤولون التنفيذيون في الشركة إلى المؤشر مثلما تنظر الجامعات إلى تصنيفات أخبار الولايات المتحدة والتقارير العالمية: قد لا يستمتعون بالحصول على الدرجات، ولكن إذا كانت الدرجات متاحة وتحظى بالاهتمام، فسوف يشعرون بالدافع لتحقيق أداء أفضل في العام المقبل.

ويأمل أيضًا أن يساعد الباحثين العاملين في فرق السلامة في تلك الشركات. يقول تيجمارك، إذا لم تشعر الشركة بضغوط خارجية للوفاء بمعايير السلامة،“عندها سوف ينظر إليك الأشخاص الآخرون في الشركة على أنك مجرد مصدر إزعاج، شخص يحاول إبطاء الأمور وإلقاء الحصى في الآلات.” ولكن إذا أصبح باحثو السلامة هؤلاء فجأة مسؤولين عن تحسين سمعة الشركة، فسوف يحصلون على الموارد والاحترام والتأثير.

معهد مستقبل الحياة هو منظمة غير ربحية مكرسة لمساعدة البشرية على درء النتائج السيئة حقا من التقنيات القوية، وفي السنوات الأخيرة ركزت على الذكاء الاصطناعي. وفي عام 2023، أصدرت المجموعة ما أصبح يعرف باسم “خطاب الإيقاف المؤقت”، الذي دعا مختبرات الذكاء الاصطناعي إلى التوقف مؤقتًا عن تطوير النماذج المتقدمة لمدة ستة أشهر، واستغلال ذلك الوقت لتطوير معايير السلامة. وقعت أسماء كبيرة مثل إيلون ماسك وستيف وزنياك على الرسالة (وحتى الآن، وقع ما مجموعه 33707 أشخاص)، لكن الشركات لم تتوقف.

قد يتم أيضًا تجاهل هذا التقرير الجديد من قبل الشركات المعنية. IEEE نطاق تواصلت مع جميع الشركات للتعليق، لكن Google DeepMind فقط استجابت، وقدمت البيان التالي: “بينما يتضمن المؤشر بعضًا من جهود Google DeepMind للسلامة في مجال الذكاء الاصطناعي، ويعكس المعايير المعتمدة في الصناعة، فإن نهجنا الشامل لسلامة الذكاء الاصطناعي يمتد إلى ما هو أبعد مما تم تسجيله”. . ونحن لا نزال ملتزمين بالتطوير المستمر لتدابير السلامة لدينا إلى جانب التقدم التكنولوجي الذي نحققه.”

كيف قام مؤشر سلامة الذكاء الاصطناعي بتصنيف الشركات

ويصنف المؤشر الشركات على مدى جودة أدائها في ست فئات: تقييم المخاطر، والأضرار الحالية، وأطر السلامة، واستراتيجية السلامة الوجودية، والحوكمة والمساءلة، والشفافية والتواصل. واعتمدت على المعلومات المتاحة للجمهور، بما في ذلك الأوراق البحثية ذات الصلة، ووثائق السياسة، والمقالات الإخبارية، وتقارير الصناعة. أرسل المراجعون أيضًا استبيانًا إلى كل شركة، لكن شركة xAI والشركة الصينية Zhipu AI (التي تمتلك حاليًا شهادة LLM الأكثر قدرة باللغة الصينية) هي التي قامت بملء استبيانها، مما عزز درجات هاتين الشركتين من حيث الشفافية.

وقد تم منح الدرجات من قبل سبعة مراجعين مستقلين، بما في ذلك أسماء كبيرة مثل ستيوارت راسل، أستاذ جامعة كاليفورنيا في بيركلي، ويوشوا بينجيو الحائز على جائزة تورينج، والذين قالوا إن الذكاء الاصطناعي الفائق يمكن أن يشكل خطراً وجودياً على البشرية. كان من بين المراجعين أيضًا قادة الذكاء الاصطناعي الذين ركزوا على أضرار الذكاء الاصطناعي على المدى القريب مثل التحيز الخوارزمي واللغة السامة، مثل أتوسا كاسيرزاده من جامعة كارنيجي ميلون وسنيها ريفانور، مؤسسة Encode Justice.

وبشكل عام، لم يعجب المراجعون. يقول راسل: “تشير نتائج مشروع مؤشر سلامة الذكاء الاصطناعي إلى أنه على الرغم من وجود الكثير من النشاط في شركات الذكاء الاصطناعي التي تندرج تحت عنوان “السلامة”، إلا أنها ليست فعالة للغاية بعد”.“على وجه الخصوص، لا يوفر أي من الأنشطة الحالية أي نوع من الضمان الكمي للسلامة؛ ولا يبدو من الممكن تقديم مثل هذه الضمانات في ضوء النهج الحالي في التعامل مع الذكاء الاصطناعي عبر الصناديق السوداء العملاقة المدربة على كميات هائلة من البيانات بشكل لا يمكن تصوره. وسوف يصبح الأمر أكثر صعوبة مع تزايد حجم أنظمة الذكاء الاصطناعي هذه. بمعنى آخر، من الممكن ألا يدعم الاتجاه التكنولوجي الحالي أبدًا ضمانات السلامة الضرورية، وفي هذه الحالة يكون الأمر في الحقيقة طريقًا مسدودًا.

حصلت Anthropic على أفضل الدرجات بشكل عام وأفضل درجة محددة، وحصلت على درجة B الوحيدة لعملها على الأضرار الحالية. ويشير التقرير إلى أن نماذج أنثروبيك قد حصلت على أعلى الدرجات في معايير السلامة الرائدة. لدى الشركة أيضًا “سياسة التوسع المسؤول” التي تقضي بأن تقوم الشركة بتقييم نماذجها من حيث قدرتها على التسبب في أضرار كارثية، ولن تنشر النماذج التي تعتبرها الشركة محفوفة بالمخاطر للغاية.

لقد كان أداء الشركات الست سيئًا بشكل خاص فيما يتعلق باستراتيجيات السلامة الوجودية الخاصة بها. لاحظ المراجعون أن جميع الشركات أعلنت عن نيتها بناء الذكاء العام الاصطناعي (AGI)، لكن Anthropic، وGoogle DeepMind، وOpenAI هي الوحيدة التي صاغت أي نوع من الإستراتيجية لضمان بقاء الذكاء الاصطناعي العام متوافقًا مع القيم الإنسانية. يقول تيجمارك: “الحقيقة هي أنه لا أحد يعرف كيفية السيطرة على أنواع جديدة أكثر ذكاءً منا بكثير”. “شعرت لجنة المراجعة أنه حتى [companies] التي كان لديها نوع من استراتيجيات المرحلة المبكرة، لم تكن كافية.

في حين أن التقرير لا يصدر أي توصيات لشركات الذكاء الاصطناعي أو صانعي السياسات، فإن Tegmark تشعر بقوة أن النتائج التي توصل إليها تظهر حاجة واضحة للرقابة التنظيمية – كيان حكومي يعادل إدارة الغذاء والدواء الأمريكية من شأنه أن يوافق على منتجات الذكاء الاصطناعي قبل وصولها إلى السوق. .

يقول تيجمارك: “أشعر أن قادة هذه الشركات عالقون في سباق نحو القاع، لا يستطيع أي منهم الخروج منه، مهما كان طيب القلب”. ويقول إن الشركات اليوم غير راغبة في التباطؤ في اختبارات السلامة لأنها لا تريد أن يتفوق عليها المنافسون في السوق. “في حين أنه إذا كانت هناك معايير للسلامة، فبدلاً من ذلك يكون هناك ضغط تجاري لمعرفة من يمكنه تلبية معايير السلامة أولاً، لأنه بعد ذلك يتعين عليه البيع أولاً وكسب المال أولاً.”

من مقالات موقعك

مقالات ذات صلة حول الويب

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى