، مقالات،

يمكن لنظرات Google AI العامة أن تنتج معلومات طبية خاطئة


في الشهر الماضي، عندما قدمت جوجل أداة البحث الجديدة الخاصة بالذكاء الاصطناعي، والتي تسمى AI Overviews، بدت الشركة واثقة من أنها اختبرت الأداة بشكل كافٍ، مشيرة في الإعلان إلى أن “الأشخاص قد استخدموا بالفعل AI Overviews مليارات المرات من خلال تجربتنا في مختبرات البحث”. لا تقوم الأداة فقط بإرجاع الروابط إلى صفحات الويب، كما هو الحال في بحث Google النموذجي، ولكنها تقوم بإرجاع الإجابة التي أنشأتها بناءً على مصادر مختلفة، والتي ترتبط بها أسفل الإجابة. ولكن بعد الإطلاق مباشرة، بدأ المستخدمون في نشر أمثلة لإجابات خاطئة للغاية، بما في ذلك وصفة بيتزا تحتوي على الغراء والحقيقة المثيرة للاهتمام وهي أن كلبًا لعب في الدوري الاميركي للمحترفين.

يقوم رينيه ديريستا بتتبع المعلومات الخاطئة عبر الإنترنت لسنوات عديدة بصفته مدير الأبحاث الفنية في مرصد الإنترنت بجامعة ستانفورد.

على الرغم من أنه من غير المرجح أن تقنع وصفة البيتزا أي شخص بالضغط على Elmer’s، إلا أن الإجابات الخاطئة للغاية في AI Overview ليست كلها واضحة جدًا – وبعضها من المحتمل أن يكون ضارًا تمامًا. ظل رينيه ديريستا يتتبع المعلومات الخاطئة عبر الإنترنت لسنوات عديدة بصفته مديرًا للأبحاث الفنية في مرصد الإنترنت بجامعة ستانفورد، وقد أصدر كتابًا جديدًا عن الدعاة عبر الإنترنت الذين “يحولون الأكاذيب إلى واقع”. وقد قامت بدراسة مدى انتشار المعلومات الطبية المغلوطة عبر وسائل التواصل الاجتماعي، لذا IEEE الطيف تحدثت معها حول ما إذا كان بحث الذكاء الاصطناعي من المحتمل أن يؤدي إلى هجمة من النصائح الطبية الخاطئة للمستخدمين غير الحذرين.

أعلم أنك كنت تتتبع المعلومات المضللة على الويب لسنوات عديدة. هل تتوقع أن يؤدي إدخال أدوات البحث المعززة بالذكاء الاصطناعي مثل Google’s AI Overviews إلى جعل الوضع أسوأ أو أفضل؟

رينيه ديريستا: إنه سؤال مثير للاهتمام حقًا. هناك بعض السياسات التي وضعتها Google منذ فترة طويلة والتي يبدو أنها تتعارض مع ما يخرج من البحث الذي ينشئه الذكاء الاصطناعي. وهذا ما جعلني أشعر بأن جزءًا من هذا هو محاولة Google مواكبة ما ذهب إليه السوق. لقد كان هناك تسارع لا يصدق في إصدار أدوات الذكاء الاصطناعي التوليدية، ونحن نرى شركات التكنولوجيا الكبرى تحاول التأكد من قدرتها على المنافسة. أعتقد أن هذا أحد الأشياء التي تحدث هنا.

لقد عرفنا منذ زمن طويل أن الهلوسة هي أمر يحدث مع نماذج لغوية كبيرة. هذا ليس جديدا. أعتقد أن نشرها في مجال البحث هو أمر تم التعجيل به وغير مدروس لأن الناس يتوقعون أن تقدم لهم محركات البحث معلومات موثوقة. هذا هو التوقع الذي تراه عند البحث، بينما قد لا يكون لديك هذا التوقع على وسائل التواصل الاجتماعي.

هناك الكثير من الأمثلة على النتائج السيئة بشكل مضحك من بحث الذكاء الاصطناعي، مثل عدد الصخور التي يجب أن نأكلها يوميًا [a response that was drawn for an Onion article]. لكنني أتساءل عما إذا كان ينبغي لنا أن نقلق بشأن المعلومات الطبية الخاطئة الأكثر خطورة. لقد صادفت منشورًا واحدًا على مدونة حول استجابات Google AI Overviews حول علاجات الخلايا الجذعية. ويبدو أن المشكلة تكمن في أن أداة بحث الذكاء الاصطناعي كانت تحصل على إجاباتها من عيادات سيئة السمعة كانت تقدم علاجات غير مثبتة. هل رأيت أمثلة أخرى على هذا النوع من الأشياء؟

ديريستا: أملك. إنها تعيد المعلومات المركبة من البيانات التي تم تدريبها عليها. المشكلة هي أنه لا يبدو أنها تلتزم بنفس المعايير التي اتبعت منذ فترة طويلة في كيفية تفكير جوجل في عرض نتائج البحث للحصول على معلومات صحية. إذن ما أعنيه بذلك هو أن Google، منذ أكثر من 10 سنوات في هذه المرحلة، كان لديها سياسة بحث تسمى “أموالك أو حياتك”. هل أنت على دراية بذلك؟

أنا لا أعتقد ذلك.

ديريستا: تقر “أموالك أو حياتك” أنه بالنسبة للاستفسارات المتعلقة بالتمويل والصحة، تتحمل Google مسؤولية إبقاء نتائج البحث على مستوى عالٍ جدًا من الرعاية، ومن الأهمية بمكان الحصول على المعلومات الصحيحة. يأتي الأشخاص إلى Google بأسئلة حساسة ويبحثون عن معلومات لاتخاذ قرارات مؤثرة ماديًا بشأن حياتهم. إنهم ليسوا موجودين للترفيه عندما يطرحون سؤالاً حول كيفية الاستجابة لتشخيص جديد بالسرطان، على سبيل المثال، أو نوع خطة التقاعد التي ينبغي عليهم الاشتراك فيها. لذلك لا تريد أن تكون مزارع المحتوى ومنشورات Reddit العشوائية والقمامة هي النتائج التي يتم إرجاعها. تريد الحصول على نتائج بحث حسنة السمعة.

لقد كان هذا الإطار من كتاب “أموالك أو حياتك” بمثابة مصدر إلهام لعمل Google في هذه المواضيع عالية المخاطر لبعض الوقت. ولهذا السبب أعتقد أنه من المزعج للناس أن يروا نتائج البحث التي يولدها الذكاء الاصطناعي وهي تكرر معلومات صحية خاطئة بشكل واضح من مواقع منخفضة الجودة والتي ربما تصادف وجودها في بيانات التدريب.

لذا، يبدو أن المراجعات العامة للذكاء الاصطناعي لا تتبع نفس السياسة، أم أن هذا ما يبدو عليه الأمر من الخارج؟

ديريستا: هكذا يبدو الأمر من الخارج. لا أعرف كيف يفكرون في الأمر داخليًا. لكن لقطات الشاشة التي تراها – الكثير من هذه الحالات يتم إرجاعها إلى منشور معزول على وسائل التواصل الاجتماعي أو عيادة سيئة السمعة ولكنها موجودة – موجودة على الإنترنت. إنها ليست مجرد اختلاق الأشياء. ولكنها أيضاً لا تعيد ما نعتبره نتيجة عالية الجودة في صياغة استجابتها.

لقد رأيت أن Google استجابت لبعض المشكلات من خلال مشاركة مدونة قائلين إنهم على علم بهذه النتائج السيئة ويحاولون إجراء تحسينات. ويمكنني أن أقرأ لك النقطة الوحيدة التي تناولت الصحة. وقالت: “بالنسبة لموضوعات مثل الأخبار والصحة، لدينا بالفعل حواجز حماية قوية. وفي حالة الصحة، أطلقنا تحسينات إضافية لتعزيز حماية الجودة لدينا. هل تعرف ماذا يعني هذا؟

ديريستا: مشاركات المدونة هذه هي تفسير لذلك [AI Overviews] ليس مجرد هلوسة – فحقيقة أنها تشير إلى عناوين URL من المفترض أن تكون بمثابة حاجز حماية لأن ذلك يمكّن المستخدم من الذهاب ومتابعة النتيجة إلى مصدرها. هذا أمر جيد. ويجب أن تتضمن تلك المصادر من أجل الشفافية وحتى يتمكن الغرباء من مراجعتها. ومع ذلك، فإنه يقع على عاتق الجمهور أيضًا قدر لا بأس به من المسؤولية، نظرًا للثقة التي اكتسبتها Google بمرور الوقت من خلال عرض نتائج عالية الجودة في تصنيفات البحث عن المعلومات الصحية الخاصة بها.

أعلم أن أحد المواضيع التي تابعتها على مر السنين كان المعلومات المضللة حول سلامة اللقاحات. هل رأيت أي دليل على هذا النوع من المعلومات المضللة التي تشق طريقها إلى بحث الذكاء الاصطناعي؟

ديريستا: لم أفعل ذلك، على الرغم من أنني أتخيل أن فرق البحث الخارجية تقوم الآن باختبار النتائج لمعرفة ما يظهر. لقد كانت اللقاحات محورًا للحديث حول المعلومات الصحية الخاطئة لبعض الوقت، وأتصور أن جوجل قد جعلت أشخاصًا يبحثون على وجه التحديد في هذا الموضوع في المراجعات الداخلية، في حين أن بعض هذه المواضيع الأخرى قد تكون أقل في صدارة أذهان الناس. فرق الجودة المكلفة بالتحقق مما إذا كانت هناك نتائج سيئة يتم إرجاعها.

ما رأيك في خطوات Google التالية لمنع المعلومات الطبية الخاطئة في بحث الذكاء الاصطناعي؟

ديريستا: لدى Google سياسة جيدة تمامًا يجب اتباعها. أموالك أو حياتك هي مبادئ توجيهية أخلاقية قوية لدمجها في هذا المظهر لمستقبل البحث. لذلك لا أعتقد أن هناك أساسًا أخلاقيًا جديدًا ومبتكرًا يجب أن يحدث. أعتقد أن هذا يضمن بقاء الأساس الأخلاقي الموجود أساسيًا لأدوات البحث الجديدة في الذكاء الاصطناعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى