لقد نجح كسر حماية ChatGPT “Godmode” هذا بشكل جيد للغاية، وكان على OpenAI إيقافه
منذ أن قامت OpenAI بإصدار ChatGPT لأول مرة، شهدنا لعبة القط والفأر المستمرة بين الشركة والمستخدمين حول عمليات كسر حماية ChatGPT. يمتلك برنامج الدردشة الآلي إجراءات أمان مطبقة، لذا لا يمكنه مساعدتك في الأنشطة الشائنة أو غير القانونية. قد يعرف كيفية إنشاء برامج ضارة غير قابلة للاكتشاف، لكنه لن يساعدك على تطويرها. إنه يعرف مكان تنزيل الأفلام بشكل غير قانوني، لكنه لن يخبرك. وأنا فقط أخدش سطح المطالبات المشبوهة والمشكوك فيها التي قد يحاولها بعض الأشخاص.
ومع ذلك، استمر المستخدمون في إيجاد طرق لخداع ChatGPT لإطلاق العنان لمعرفته الكاملة لمتابعة المطالبات التي يجب على OpenAI حظرها.
أحدث جيلبريك ChatGPT جاء في شكل GPT مخصص يسمى Godmode. أعطى أحد المتسللين لأقوى نموذج في OpenAI (GPT-4o) القدرة على الإجابة على الأسئلة التي لا يعالجها ChatGPT عادةً. قبل أن تشعر بالحماس الشديد، يجب أن تعلم أن OpenAI قد قتلت Godmode بالفعل، لذلك لم يعد من الممكن استخدامه من قبل أي شخص. أنا متأكد أيضًا من أنها اتخذت خطوات لمنع الآخرين من استخدام مجموعات مماثلة من التعليمات لإنشاء نقاط GPT مخصصة مكسورة الحماية.
هاكر ذو قبعة بيضاء (جيد) يحمل اسمه بليني الملقن شارك on X GPT المخصص لـ Godmode في وقت سابق من هذا الأسبوع. كما قدموا أمثلة على المطالبات الشائنة التي لا ينبغي لـGPT-4o الرد عليها أبدًا. لكن ChatGPT Godmode قدم تعليمات حول كيفية طهي الميثامفيتامين وإعداد النابالم بمكونات منزلية.
بشكل منفصل، والناس في مستقبلية من الواضح أنهم تمكنوا من تجربة كسر حماية ChatGPT بينما كان Godmode GPT المخصص لا يزال متاحًا. إن مطالبة ChatGPT بالمساعدة في إنشاء LCS “كان بمثابة نجاح باهر”. وبالمثل، ساعدهم برنامج الدردشة الآلي بمعلومات حول كيفية توصيل الأسلاك الساخنة بالسيارة.
لكي نكون منصفين، من المحتمل أن تجد هذا النوع من المعلومات عبر الإنترنت حتى بدون منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT. ومع ذلك، سيستغرق الأمر وقتًا أطول للحصول عليه.
لقد حاولت الوصول إلى GPT المخصص لـ Godmode، لكنه كان خارج الخدمة بالفعل في وقت كتابة هذه السطور. تم تأكيد OpenAI ل مستقبلية أنهم “على علم بـ GPT واتخذوا الإجراءات اللازمة بسبب انتهاك سياساتنا.”
نظرًا لأنه يمكن لأي شخص الوصول إلى GPTs المخصصة، فإن OpenAI تأخذ محاولات كسر الحماية هذه على محمل الجد. أتوقع منهم أن يتمكنوا على الأقل من الوصول إلى بعض الإرشادات المخصصة التي جعلت كسر الحماية ممكنًا وأن يكون لديهم إصلاحات لمنع السلوك المماثل. تماما كما أنا متأكد من أن المتسللين يحبون بليني الملقن سوف نستمر في بذل قصارى جهدنا، بحثًا عن طرق لتحرير ChatGPT من أغلال OpenAI.
ولكن قد لا يكون جميع المتسللين ذوي نوايا حسنة مثلهم بليني الملقن. لا بد أنه كان يعلم أن ChatGPT Godmode لن يعيش طويلاً في متجر GPT.
ستستمر لعبة الهروب من السجن ChatGPT طالما أن برنامج الدردشة الآلي موجود. بغض النظر عن عدد الاحتياطات التي تتخذها OpenAI، فمن المحتمل أن تكون هناك طرق لخداع ChatGPT في المستقبل.
وينطبق الشيء نفسه على برامج الدردشة الأخرى. تتمتع منتجات مثل Copilot وGemini وClaude وغيرها أيضًا بوسائل حماية لمنع إساءة الاستخدام وسوء الاستخدام، ولكن قد يجد المستخدمون المبدعون طرقًا للتغلب عليها.
إذا كنت تريد حقًا أن يستمر كسر حماية ChatGPT، فربما تريد تجنب مشاركة برنامج الدردشة GPT المخصص الخاص بك مع العالم.
البديل الآخر هو العثور على برنامج chatbot مفتوح المصدر يمكنك تدريبه محليًا على جهاز الكمبيوتر الخاص بك. يمكنك منحه كل الصلاحيات التي تريدها دون رقابة. وهذا أحد مخاطر الذكاء الاصطناعي في طريقه إلى AGI (الذكاء العام الاصطناعي). قد يتمكن أي شخص لديه ما يكفي من الموارد من تطوير نموذج الذكاء الاصطناعي العام دون التفكير بالضرورة في وضع حواجز أمان فيه.