كيف يعمل ChatGPT ولماذا يحتاج OpenAI إلى المبلغين عن المخالفات
بقدر ما أحب استخدام ChatGPT، إلا أن بعض التطورات المثيرة للقلق من الشركة مؤخرًا جعلتني أشكك في ثقتي في OpenAI. يعد رحيل إيليا سوتسكيفر واحدًا منها وربما الأكثر أهمية.
كان يُنظر إلى المؤسس المشارك لـ OpenAI على أنه الشخص الرئيسي الذي يراقب الذكاء الاصطناعي في OpenAI. لكن ليس سوتسكيفر وحده هو الذي ترك فريق المحاذاة الفائقة، مما يجعلنا نتساءل عمن يشرف على سلامة الذكاء الاصطناعي في الشركة. غادر الكثير من كبار المهندسين OpenAI. بعد ذلك، أعاد الرئيس التنفيذي سام ألتمان تنظيم الفريق في لجنة السلامة والأمن المسؤولة عنه.
أضف المعركة العامة مع Scarlett Johansson حول صوت GPT-4o الذي بدا مشابهًا بشكل مخيف لأحد الأدوار المتعلقة بالذكاء الاصطناعي للممثلة، وستدرك أن OpenAI ربما تكسر الكثير من البيض لمصلحتها.
ننتقل سريعًا إلى هذا الأسبوع، ولدينا رسالة مفتوحة من مجموعة من مهندسي الذكاء الاصطناعي تضم موظفين حاليين وسابقين في OpenAI. إنهم يطالبون بإشراف أفضل على شركات الذكاء الاصطناعي. سيتضمن ذلك نظامًا يشجع المبلغين عن المخالفات على التقدم عندما يشعرون أن شيئًا ما ليس على ما يرام دون المخاطرة برد فعل عنيف من الشركة التي يعملون بها.
بالنظر إلى الوتيرة السريعة في صناعة الذكاء الاصطناعي، قد يكون المبلغون عن المخالفات هو أفضل شيء يحدث لـ ChatGPT ومنتجات الذكاء الاصطناعي الأخرى، خاصة إذا كانت شركات مثل OpenAI لا تفهم تمامًا كيفية عمل الذكاء الاصطناعي الخاص بها. وتبين أن هذا أيضًا ما يحدث مع روبوتات الدردشة الحالية المعتمدة على الذكاء الاصطناعي.
الرسالة المفتوحة متاحة على أ الحق في التحذير موقع يمكن لأي شخص أن يقرأه. لقد تم توقيعه من قبل موظفين سابقين في OpenAI وGoogle DeepMind وAnthropic الذين لم يخشوا وضع أسمائهم تحت الأخير. ولكنها تحتوي أيضًا على توقيعات مجهولة المصدر من موظفي OpenAI السابقين والحاليين الذين يخشون انتقام الشركة.
في الواقع، ذكرت التقارير قبل بضعة أيام أن اتفاقيات عدم الإفصاح الخاصة بشركة OpenAI قد تمنع الموظفين السابقين من انتقاد الشركة علنًا.
ماذا يريد المخبرون
ويقول الموقعون إنهم “يؤمنون بإمكانية تكنولوجيا الذكاء الاصطناعي في تقديم فوائد غير مسبوقة للبشرية”. لكنهم أيضا “يفهمون المخاطر الجسيمة التي تفرضها هذه التكنولوجيات”.
“وتتراوح هذه المخاطر من زيادة ترسيخ عدم المساواة القائمة، إلى التلاعب والتضليل، إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة مما قد يؤدي إلى انقراض الإنسان. وقد اعترفت شركات الذكاء الاصطناعي نفسها بهذه المخاطر، كما فعلت الحكومات في جميع أنحاء العالم وخبراء الذكاء الاصطناعي الآخرون.
ويقول العلماء إن التوجيهات من المجتمع وصانعي السياسات والجمهور يمكن أن تخفف من المخاطر. لكن لا توجد رقابة كافية على صناعة الذكاء الاصطناعي الناشئة. تتمتع الشركات بقدر كبير من السيطرة على ما تعرفه (وما لا تعرفه) عن الذكاء الاصطناعي. لا توجد قوانين معمول بها من شأنها حماية المبلغين عن مخالفات الذكاء الاصطناعي.
“إن الحماية العادية للمبلغين عن المخالفات ليست كافية لأنها تركز على النشاط غير القانوني، في حين أن العديد من المخاطر التي نشعر بالقلق إزاءها لم يتم تنظيمها بعد. يخشى البعض منا بشكل معقول أشكالًا مختلفة من الانتقام، نظرًا لتاريخ مثل هذه الحالات في جميع أنحاء الصناعة. وتقول الرسالة: “نحن لسنا أول من واجه هذه القضايا أو تحدث عنها”.
يطلب مهندسو الذكاء الاصطناعي من شركات الذكاء الاصطناعي مثل OpenAI الالتزام بقائمة من المبادئ التي من شأنها أن تسمح بالإبلاغ الآمن عن المخالفات.
إنهم يريدون آلية يمكن بموجبها للمبلغين عن المخالفات التعبير عن مخاوفهم بأمان ومجهول بشأن الذكاء الاصطناعي، مثل ChatGPT. ستأخذ الشركات في الاعتبار الانتقادات الصريحة ولن تنتقم من أولئك الذين يجرؤون على التعبير عن آرائهم بشأن المخاطر المحتملة. ويجب أن يتم كل ذلك ضمن إطار يحمي أيضًا الكشف عن المعلومات السرية دون داع.
سقطت الرسالة ساخنة في أعقاب توقف ChatGPT لعدة ساعات. وهذا هو الحادث الثاني من نوعه خلال أيام. ومن الغريب أن الجوزاء وكلود والحيرة كان لهم نصيبهم الخاص من القضايا يوم الثلاثاء.
كيف يعمل ChatGPT على أي حال؟
قبل بضعة أيام، قال سام ألتمان في مؤتمر للذكاء الاصطناعي في جنيف بسويسرا، إن OpenAI لا تفهم تمامًا كيفية عمل ChatGPT، وهو أمر غير معتاد في الصناعة. وتتطلع شركات أخرى أيضًا إلى فهم أنظمة الذكاء الاصطناعي الخاصة بها بشكل أفضل.
أكد ألتمان أن OpenAI لم تحل مشكلة التفسير المراقب. عند الضغط عليه حول ما إذا كان يجب على OpenAI الامتناع عن إطلاق نماذج جديدة أكثر قوة حتى يكتشفوا كيفية عمل GPTs، قلل ألتمان في النهاية من المخاطر، قائلاً إن “هذه الأنظمة [are] تعتبر بشكل عام آمنة وقوية.”
وقال ألتمان: “نحن لا نفهم ما يحدث في دماغك على مستوى الخلايا العصبية، ومع ذلك فإننا نعلم أنه يمكنك اتباع بعض القواعد ويمكن أن نطلب منك شرح سبب تفكيرك في شيء ما”. المقارنة صحيحة إلى حد ما. لا يمكن لأي دماغ واحد أن يطور ذكاءً خارقًا يمكن أن يشكل خطرًا على النوع بأكمله.
ثم مرة أخرى، تتوقع أن يقول ذلك الرجل الذي نجا من محاولة انقلاب كبرى ثم انتهى به الأمر باستبدال فريق السلامة المنتهية ولايته بفريق يشرف عليه. وهذا دليل آخر على أن مجال الذكاء الاصطناعي يحتاج إلى المبلغين عن المخالفات، تمامًا مثل أي صناعة أخرى. وربما أكثر من المجالات المتخصصة الأخرى، مع الأخذ في الاعتبار المخاطر النظرية الهائلة المرتبطة بالذكاء الاصطناعي.