ChatGpt: مخاطر الأسلحة الحيوية حقيقية

لم تتضمن بطاقة Bingo الخاصة بي لهذا الشهر Openai لإخبار العالم بأن نماذج Futier Frontier AI القادمة إلى Chatgpt ستعرف كيفية صنع الأسلحة الحيوية أو Biothreats الجديدة ، لكننا هنا. يمكننا إضافة هذه الإمكانية إلى قائمة المتنامية من القضايا التي تمنحنا سببًا للقلق بشأن مستقبل حيث تصل الذكاء الاصطناعى إلى الخواص.
ومع ذلك ، فهي ليست سيئة كما يبدو. يمنحنا Openai هذا التحذير الآن لشرح ما يفعله لمنع الإصدارات المستقبلية من ChatGPT من مساعدة الممثلين السيئين على وضع الأسلحة البيولوجية.
يريد Openai أن يكون يتحكم في تدريس علم الأحياء والكيمياء المتقدمة لنماذج الذكاء الاصطناعى بدلاً من ضمان عدم تدريب ChatGPT على هذه البيانات. أفضل فهم للبيولوجيا والكيمياء ChatGPT ، كلما كان من الأسهل مساعدة البشر في وضع أدوية جديدة وخطط العلاج. قد تأتي الإصدارات الأكثر تقدماً من ChatGPT بالابتكارات بمفردها بمجرد الوصول إلى superintelligence.
تقديم الدعم لإنشاء الأسلحة الحيوية هو مجرد تأثير جانبي. لهذا السبب ، يجب أن يبدأ عمل Openai على ضمان عدم تقديم المساعدة لأي شخص يتطلع إلى جعل Biothreats المرتجلة أن تبدأ الآن.
الابتكارات الصحية منظمة العفو الدولية موجودة بالفعل هنا
لقد رأينا بالفعل أن العلماء يستخدمون إمكانيات الذكاء الاصطناعى الحالية للتوصل إلى خيارات علاجية جديدة. يستخدم بعضهم الذكاء الاصطناعي لمعرفة كيف يمكن إعادة استخدام الأدوية المعتمدة لشروط معينة لعلاج الأمراض النادرة.
لقد رأينا أيضًا نظام AI يجد علاجًا لنوع من العمى من خلال وضع نظريات واقتراح تجارب للتوصل إلى علاجات جديدة. في النهاية ، اكتشف الذكاء الاصطناعى أيضًا أن عقار العين الحالي يمكن أن يساعد في منع العمى في حالة عين معينة.
Biothreats: الآثار الجانبية الواضح
خاطب Openai إمكانات الذكاء الاصطناعي لتحسين الاكتشاف العلمي في منشور جديد للمدونة يعالج خطر المساعدة في ChatGPT مع الأسلحة الحيوية:
تتمتع نماذج الذكاء الاصطناعى المتقدمة بالقدرة على تسريع الاكتشاف العلمي بسرعة ، واحدة من العديد من الطرق التي ستفيد بها نماذج Frontier AI البشرية. في علم الأحياء ، تساعد هذه النماذج بالفعل العلماء (يفتح في نافذة جديدة) تحديد الأدوية الجديدة التي من المرجح أن تنجح في التجارب البشرية. بعد فترة وجيزة ، يمكنهم أيضًا تسريع اكتشاف المخدرات ، وتصميم لقاحات أفضل ، وإنشاء إنزيمات للوقود المستدام ، وكشف علاجات جديدة للأمراض النادرة لفتح إمكانيات جديدة عبر الطب والصحة العامة والعلوم البيئية.
أوضح Openai أن لديها استراتيجية معمول بها لضمان أن نماذج ChatGPT لا يمكنها مساعدة الأشخاص ذوي الخبرة البسيطة أو الجهات الفاعلة المهرة العالية في إنشاء الأسلحة الحيوية. بدلاً من الأمل في الأفضل ، تتمثل الخطة في وضع ونشر الدرابزين التي تمنع ChatGPT من مساعدة الجهات الفاعلة السيئة عند إعطاء مطالبات ضارة.
يقول Openai إنه يشارك في “الأمن الحيوي ، والأسلحة الحيوية ، والإرهاب الحيوي ، وكذلك الباحثين الأكاديميين ، لتشكيل نموذج تهديد الأمن الحيوي لدينا ، وتقييمات القدرة ، وسياسات النموذج والاستخدام” منذ الأيام الأولى.
في الوقت الحالي ، توظف فرقًا حمراء يتألفون من خبراء منظمة العفو الدولية وخبراء علم الأحياء لاختبار chatbot ومنع الدردشة من تقديم المساعدة عندما يُطلب منهم المساعدة في التجارب التي يمكن أن تسمح لشخص ما بإنشاء سلسة بيولوجية.
كيف تحمي chatgpt من الإرهاب الحيوي
أوضح Openai أيضًا الميزات التي تم إنشاؤها في ChatGPT لمنع سوء الاستخدام الذي قد يسمح لشخص ما بالحصول على مساعدة متعلقة بالسلاح الحيوي.
سترفض الذكاء الاصطناعى المطالبات الخطرة. بالنسبة لطلبات الاستخدام المزدوج التي قد تتضمن موضوعات مثل تجارب الفيروسات أو الهندسة الوراثية ، لن يوفر ChatGPT خطوات قابلة للتنفيذ. يجب أن يمنع الافتقار إلى التفاصيل الأشخاص الذين ليسوا خبراء في المجالات ذات الصلة الحيوية من اتخاذ إجراءات.
من شأن أنظمة الكشف دائمًا أن تكتشف أيضًا نشاطًا مرتبطًا بالحيوية يعتبر محفوفًا بالمخاطر. لن يستجيب الذكاء الاصطناعي وسيتم تشغيل المراجعة اليدوية. يمكن للإنسان الوصول إلى دردشة ChatGpt. قد يقوم Openai أيضًا بتعليق الحسابات وإجراء تحقيقات في المستخدم. في “الحالات الفظيعة” ، قد يشمل Openai سلطات إنفاذ القانون.
أضف فريق Red Teaming و Security Controls ، ولديه Openai خطة معقدة لمنع مثل هذا الإساءة. لا شيء مضمون ، ولكن. قد ينتهي الأمر بالفاعلات السيئة إلى كسر chatgpt للحصول على معلومات عن الأسلحة الحيوية. لكن حتى الآن ، تقول Openai إن أنظمتها تعمل.
لا يزال ChatGPT O3 ، أحد أكثر نماذج الذكاء الاصطناعي المتقدمة في Openai والتي قد تساعد في مثل هذه التهديدات الخطرة “أقل من عتبة القدرة العالية في إطار الاستعداد الخاص بنا”.
ما هو نموذج عتبة القدرة العالية؟
يشرح Openai في حواشي المدونة ما هو نموذج عتبة القدرة العالي:
يحدد إطار الاستعداد الخاص بنا عتبات القدرة التي يمكن أن تؤدي إلى خطر شديد ، وإرشادات خاصة بالمخاطر لتقليل خطر حدوث ضرر شديد. بالنسبة للبيولوجيا ، يمكن أن يوفر النموذج الذي يلبي عتبة القدرة العالية مساعدة ذات مغزى للممثلين المبتدئين مع التدريب الأساسي ذي الصلة ، مما يتيح لهم خلق تهديدات بيولوجية أو كيميائية.
إذا وصل النموذج إلى عتبة قدرة عالية ، فلن ننشره حتى نكون واثقين من تخفيف المخاطر بشكل كافٍ.
تقول الشركة أيضًا في نفس الحواشي أنها قد تتخلى عن بعض الميزات من إصدارات ChatGPT المستقبلية إذا وصلت إلى عتبة القدرة العالية.
Openai ليست الشركة الوحيدة التي تتعامل مع تهديدات الأسلحة الحيوية في سياق AD المتقدم مع رعاية إضافية. أعلنت الأنثروبور أن كلود 4 تتميز بدرجات أمنية متزايدة لمنع منظمة العفو الدولية من مساعدة أي شخص على إنشاء الأسلحة الحيوية.
ما يأتي بعد ذلك
وقالت Openai أيضًا إنها ستستضيف قمة Biodefense الأولى على الإطلاق في يوليو لاستكشاف كيف يمكن أن تسرع نماذج الحدود البحث. سيحضر الباحثون الحكوميون والمنظمات غير الحكومية الحدث.
وتأمل الشركة أيضًا أن يأتي كل من القطاع العام والخاص بأفكار جديدة لاستخدام الذكاء الاصطناعي للاكتشاف العلمي المتعلق بالصحة التي يمكن أن تفيد العالم.




