أخبار

ابتكر الباحثون خوارزمية يمكنها معرفة متى يهلوس الذكاء الاصطناعي


على الرغم من مدى الإعجاب الذي قد يتمتع به الذكاء الاصطناعي مثل ChatGPT وClaude وحتى Gemini، إلا أن هذه النماذج اللغوية الكبيرة تشترك جميعها في مشكلة واحدة كبيرة: فهي تهلوس كثيرًا. هذه مشكلة كبيرة في عالم الذكاء الاصطناعي، وحتى شركة Apple تشعر بالقلق بشأن كيفية تعاملها مع الهلوسة في المستقبل باستخدام Apple Intelligence. لحسن الحظ، قامت مجموعة من الباحثين الآن بإنشاء كاشف للهلوسة يعمل بالذكاء الاصطناعي، والذي يمكنه معرفة ما إذا كان الذكاء الاصطناعي قد اختلق شيئًا ما.

أدت هذه الهلوسة إلى عدد من الأخطاء المحرجة والمثيرة للاهتمام، ولا تزال واحدة من الأسباب الرئيسية التي تجعل الذكاء الاصطناعي مثل ChatGPT ليس أكثر فائدة. لقد رأينا Google مضطرة إلى إجراء تغييرات على نظرة عامة على بحث الذكاء الاصطناعي بعد أن بدأ الذكاء الاصطناعي في إخبار الأشخاص أنه من الآمن تناول الصخور ووضع الغراء على البيتزا. لقد رأينا أيضًا محامين استخدموا ChatGPT للمساعدة في كتابة دعوى قضائية تم تغريمهم فيها لأن برنامج الدردشة الآلية يقتبس الاستشهادات من المستند بشكل مهلوس.

ربما كان من الممكن تجنب هذه المشكلات لو تم وصف كاشف الهلوسة بالذكاء الاصطناعي في ورقة بحثية جديدة نُشرت في المجلة طبيعة. وفقًا للورقة البحثية، يمكن لخوارزمية جديدة طورها الباحثون أن تساعد في معرفة ما إذا كانت الإجابات التي يولدها الذكاء الاصطناعي حقيقية بنسبة 79 بالمائة تقريبًا من الوقت. هذا ليس سجلًا مثاليًا بالطبع، لكنه أعلى بنسبة 10 بالمائة من الطرق الرائدة الأخرى الموجودة حاليًا.

يمكن لروبوتات الدردشة مثل Gemini وChatGPT أن تكون مفيدة، لكنها يمكنها أيضًا الهلوسة بالإجابات بسهولة شديدة.

تم إجراء البحث من قبل أعضاء قسم علوم الكمبيوتر بجامعة أكسفورد. وأوضح الباحثون في الورقة أن الطريقة المستخدمة بسيطة نسبيا. أولاً، يطلبون من برنامج الدردشة الآلي الرد على نفس المطالبة عدة مرات، عادة من خمس إلى عشر مرات. بعد ذلك، يقومون بحساب رقم لما نسميه الإنتروبيا الدلالية، وهو مقياس لمدى تشابه أو اختلاف معاني الإجابة.

إذا كان النموذج يجيب بشكل مختلف لكل من الإدخالات السريعة، فستكون درجة الإنتروبيا الدلالية أعلى، مما يشير إلى أن الذكاء الاصطناعي قد يكون يهذي بالإجابة. إذا كانت جميع الإجابات متطابقة أو لها معاني متشابهة، فستكون درجة الإنتروبيا الدلالية أقل، مما يشير إلى أنها تعطي إجابة أكثر اتساقًا وواقعية على الأرجح. وكما قلت، فهو ليس جهازًا مضمونًا لكشف الهلوسة بواسطة الذكاء الاصطناعي، لكنه طريقة مثيرة للاهتمام للتعامل معه.

وتعتمد طرق أخرى على ما نسميه الإنتروبيا الساذجة، والتي تتحقق عادةً لمعرفة ما إذا كانت صياغة الإجابة، بدلاً من معناها، مختلفة. على هذا النحو، ليس من المرجح أن يلتقط الهلوسة بدقة لأنه لا ينظر إلى المعنى الكامن وراء الكلمات في الجملة.

يقول الباحثون إنه يمكن إضافة الخوارزمية إلى برامج الدردشة الآلية مثل ChatGPT عبر زر، مما يسمح للمستخدمين بالحصول على “درجة يقين” للإجابات التي يتم تقديمها لهم على مطالباتهم. يعد وجود كاشف هلوسة يعمل بالذكاء الاصطناعي مدمجًا مباشرة في برنامج الدردشة الآلي أمرًا مغريًا، لذلك يمكنني رؤية فائدة إضافة مثل هذه الأداة إلى برامج الدردشة المختلفة الموجودة هناك.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى