باحث سلامة آخر يترك Openai

في هذه الأيام ، يهيمن Deepseek على دورة أخبار الذكاء الاصطناعي. Deepseek هي شركة ناشئة صينية أصدرت نموذجًا للمنطق بقوة مثل ChatGPT O1 على الرغم من عدم وجود موارد الأجهزة والبنية التحتية الضخمة في Openai. استخدم Deepseek رقائقًا أقدم وتحسينات للبرامج لتدريب Deepseek R1.
اتهامات من Openai بأن Deepseek ربما تكون قد قامت بتقطير chatgpt لتدريب السلائف من R1 حتى لا تهم.
ربما حقق مشروع Deepseek هدفه على جبهات متعددة. لقد أدى إلى تسوية الملعب في حروب الذكاء الاصطناعي ، مما منح الصين فرصة قتال. كما قدم ديبسيك ضربة مالية ضخمة لسوق الأوراق المالية الأمريكية ، التي فقدت ما يقرب من مليار دولار ، حيث تمثل شركات أجهزة الذكاء الاصطناعي أكبر خسائر في السوق.
أخيرًا ، أعطى Deepseek الصين سلاحًا للبرمجيات قد يكون أقوى من Tiktok. Deepseek هو التطبيق الأول في متجر التطبيقات. علاوة على ذلك ، يمكن لأي شخص تثبيت نموذج Deepseek على جهاز الكمبيوتر الخاص بهم واستخدامه لإنشاء نماذج أخرى.
مع وضع كل ذلك في الاعتبار ، قد لا تولي اهتمامًا للتقارير التي تقول إن باحثًا رئيسيًا في سلامة Openai قد استقال. ستيفن أدلر هو اسم آخر سنضيفه إلى قائمة متزايدة من المهندسين الذين غادروا Openai في العام الماضي.
من المثير للاهتمام أيضًا أن المهندس استقال في منتصف نوفمبر ، لكنه جعل رحيله علنًا يوم الاثنين ، تمامًا كما تحطمت Deepseek News في السوق.
قال أدلر على X إنه يترك الشركة بعد أربع سنوات. وقال قبل أن يسقط بيانًا قاتمًا: “لقد كانت رحلة برية مع الكثير من الفصول – القدرة الخطيرة ، وسلامة/السيطرة على الوكيل ، AGI والهوية عبر الإنترنت ، وما إلى ذلك – وسأفتقد أجزاء كثيرة منها”.
قال الباحث إنه “مرعوب جدًا من وتيرة تطور الذكاء الاصطناعي هذه الأيام.” تعكس ملاحظة أدلر مخاوف خبراء الذكاء الاصطناعى الآخرين الذين يعتقدون أن الذكاء الاصطناعى ستجلب عذابنا المحتوم. لم يكن باحث سلامة ChatGPT السابق يلقي كلمات ، قائلاً إنه قلق بشأن المستقبل.
“عندما أفكر في المكان الذي سأرفع فيه عائلة مستقبلية أو كم لتوفير للتقاعد ، لا يسعني إلا أن أتساءل: هل ستجعل الإنسانية حتى هذه النقطة؟” سأل.

سأكون فضوليًا لسماع ما رآه أدلر في Openai الذي جعله يغادر الشركة. سأكون أكثر فضولًا لسماع سبب عدم الالتفاف على أن يساعد في إنقاذ الإنسانية من الذكاء الاصطناعي السيئ من خلال المشاركة في واحدة من أهم شركات الذكاء الاصطناعى هناك.
ربما كان أدلر يشهد أبحاث AGI (الذكاء العام الاصطناعي) في Openai ، وهو أمر تتطور الشركة بوضوح. أنا أتكهن هنا ، لكنه يعتمد على تغريدة متابعة. قال أدلر ، “سباق AGI هو مقامرة محفوفة بالمخاطر للغاية ، مع جانب هائل. لا يوجد معمل لديه حل لمحاذاة الذكاء الاصطناعي اليوم. وكلما أسرعنا أسرع ، قل احتمال أن يجد أي شخص واحدًا في الوقت المناسب. “

من المفترض أن Openai يسرع في سباق AGI. AGI هو نوع الذكاء الاصطناعى الذي سيتطابق مع إبداع وقدرة الإنسان عند تكليفه بمحاولة حل أي مشكلة. لكن AGI ستحتفظ أيضًا بمزيد من المعلومات ، بحيث يمكنها معالجة أي مهمة أفضل بكثير من الإنسان. على الأقل هذه هي الفكرة.
المحاذاة هي أهم مسألة أمان تتعلق بمنظمة العفو الدولية ، AGI ، و SuperIncligence (ASI). يجب أن تتماشى الذكاء الاصطناعي مع مصالح الإنسانية على جميع المستويات. هذه هي الطريقة الوحيدة لضمان عدم تطوير منظمة العفو الدولية أجندات خاصة بها والتي قد تؤدي إلى زوالنا.
ومع ذلك ، فإن المنتجات الواقعية مثل ChatGpt و Deepseek تمنحنا بالفعل نوعين من المحاذاة. نأمل أن تتوافق معنا ومواجهة المصالح الغربية. تم بناء Deepseek بمصالح صينية أولاً ، ويتوافق مع أولئك عبر الرقابة.

يبدو أن أدلر يشير إلى Deepseek في خيط Monday Monday على X دون تسمية بدء التشغيل الصيني.
وقال “اليوم ، يبدو أننا عالقون في توازن سيء للغاية”. “حتى لو أراد المختبر حقًا تطوير AGI بمسؤولية ، لا يزال بإمكان الآخرين قطع الزوايا للحاق بالركب ، وربما بشكل كارثي. وهذا يدفع كل شيء لتسريع. آمل أن تكون المختبرات صريحة بشأن السلامة الحقيقية التي احتاجها لوقف هذا. ”
كيف يرتبط هذا بمنظمة العفو الدولية؟ حسنًا ، يتوفر نموذج Deepseek R1 مفتوح المصدر لأي شخص. قد تتعثر الممثلون الشريرون الذين لديهم بعض الموارد والدراية والأفكار الجديدة على AGI دون معرفة ما يفعلونه أو حتى يدركون أنهم يطلقون شكلًا متفوقًا من الذكاء الاصطناعي على العالم.
هذا يبدو وكأنه سيناريو فيلم الخيال العلمي ، بالتأكيد. لكن قد يحدث ذلك. إنه صالح تمامًا مثل سيناريو مثل ، على سبيل المثال ، شركة منظمة العفو الدولية الكبيرة التي تقوم بتطوير AGI وتجاهل تحذيرات باحثو السلامة ، الذين ينتهي بهم المطاف في النهاية إلى ترك الشركة واحدة تلو الأخرى.
ليس من الواضح إلى أين سينتقل أدلر بعد ذلك ، لكن يبدو أنه لا يزال مهتمًا بسلامة الذكاء الاصطناعي. سأل على X عما يعتقد الناس أن “أهم الأفكار والمهملة في سلامة/سياسة الذكاء الاصطناعي” ، مضيفًا أنه متحمس لـ “أساليب التحكم ، واكتشاف التخطيط ، وحالات السلامة”.