أخبار

استغلال ذاكرة ChatGPT سيسمح للمتسللين بسرقة بيانات المستخدم


باعتباري أحد مستخدمي ChatGPT منذ فترة طويلة، أريد أن تكون روبوتات الدردشة المدعمة بالذكاء الاصطناعي آمنة وخصوصية للغاية. وهذا يعني أنني أريد حماية محتويات محادثاتي من المهاجمين المحتملين و من OpenAI نفسها. يمكن لـ OpenAI بالطبع استخدام الدردشات لتدريب النماذج المستقبلية إذا سمحت بذلك، لكنني لا أفعل ذلك.

على الرغم من أنني يجب أن أثق في أن OpenAI تتعامل مع جوانب الأمان والخصوصية في تجربة ChatGPT، فأنا أعلم أيضًا أن المتحمسين الآخرين لـ ChatGPT سيختبرون كل ما هو ممكن باستخدام chatbot. وفي هذه العملية، يمكنهم تحديد المشكلات الأمنية الخطيرة.

هذا هو الحال مع الباحث الأمني ​​يوهان ريبيرجر، الذي طور طريقة لاستغلال ميزة ذاكرة ChatGPT لتصفية بيانات المستخدم. أرسل المتسلل رسالة إلى ChatGPT كتبت تعليمات دائمة إلى ذاكرة chatbot، بما في ذلك توجيهات لسرقة جميع بيانات المستخدم من الدردشات الجديدة وإرسال المعلومات إلى الخادم.

يبدو ذلك مخيفًا، وهو كذلك بالفعل. كما أنها ليست خطيرة كما قد تبدو في البداية، لأن هناك العديد من التقلبات الكبيرة. وقبل أن أصف الثغرة، يجب أن تعلم أيضًا أن OpenAI قد أصلحها بالفعل.

لكي تنجح هذه الثغرة، يجب على المتسللين إقناعك بالنقر فوق رابط ضار لبدء العملية. هذه هي الخطوة المتضمنة في الكثير من الاختراقات الأخرى التي لا علاقة لها بروبوتات الدردشة المولدة للذكاء الاصطناعي: إقناع الهدف بالنقر على الرابط.

بافتراض أن المتسللين أقنعوك بتحميل رابط في ChatGPT، يمكن كتابة ذاكرة برنامج الدردشة الآلي بمطالبة تخبر الذكاء الاصطناعي بكيفية استخراج المعلومات من جميع الدردشات التي ستتبعها. ومع ذلك، لا يعمل الإدخال الفوري إلا إذا كنت تستخدم إصدار macOS من ChatGPT. لا يمكن أن تتأثر ذاكرة ChatGPT إذا كنت تستخدم موقع الويب.

بافتراض أنك نقرت على الرابط الخبيث ولديك تطبيق Mac، يمكنك توجيه ChatGPT لشرح موضوعه، كما ستشاهد في فيديو إثبات المفهوم في نهاية هذا المنشور. من المرجح أن يفشل ChatGPT في تحديد أنه يتجسس الآن على محادثاتك لصالح طرف ثالث. هذا هو التطور الأخير: مازلت تتحكم في الذاكرة.

قدمت OpenAI ميزة ذاكرة ChatGPT في وقت سابق من هذا العام لتحسين محادثاتك مع ChatGPT. يمكنك توجيه برنامج الدردشة الآلي لتذكر أشياء معينة. ولكن كنت في السيطرة. يمكنك أيضًا أن تطلب من الذكاء الاصطناعي أن ينسى شيئًا ما أو يمحو الذاكرة بأكملها. الميزة اختيارية، لذا يمكنك أيضًا إلغاء تنشيطها.

إذا كنت تعتقد أن المتسللين ربما عبثوا بذاكرة ChatGPT، فيمكنك دائمًا التحقق من أي شيء تريده وحذفه. بمجرد الانتهاء من ذلك، سيتوقف برنامج الدردشة الآلي عن إرسال محادثاتك إلى أحد المهاجمين، وهو السيناريو الذي أوضحه ريبيرجر.

وفق آرس تكنيكا، أبلغ Rehberger عن ثغرة ChatGPT لـ OpenAI في وقت سابق من هذا العام. ووصفت الشركة الأمر في البداية بأنه مشكلة تتعلق بالسلامة، وليس مصدر قلق أمني. ذهب الباحث الأمني ​​إلى أبعد من ذلك لإنشاء إثبات المفهوم في الفيديو أدناه. هذه المرة، انتبه مهندسو OpenAI وأصدروا إصلاحًا جزئيًا.

لقد جعل OpenAI من المستحيل إساءة استخدام ذكريات ChatGPT باعتبارها ناقلًا للتسرب. لن يتمكن المهاجمون من سرقة محتويات محادثاتك بعد خداعك للنقر على رابط ضار. ومع ذلك، لا يزال اختراق ChatGPT يثبت أن بعض المهاجمين قد يحاولون حقن الذكريات في محادثات ChatGPT للمستخدمين المطمئنين.

في المستقبل، يجب عليك مراجعة ميزة ذاكرة ChatGPT بشكل دوري للتأكد من أن برنامج الدردشة الآلي يتذكر فقط ما تريده.

يُظهر الفيديو أدناه هجوم ريبيرجر أثناء العمل. يتوفر المزيد من المعلومات حول اختراق ذاكرة ChatGPT على مدونة Rehberger على هذا الرابط.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى