أعلنت شركة Ilya Sutskever للذكاء الفائق الآمن
منذ حوالي شهر، أعلن إيليا سوتسكيفر رحيله عن OpenAI. وبالنظر إلى ما حدث في نوفمبر عندما تم طرد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، ثم أعيد تعيينه على الفور بعد كل الغضب، لم يكن هذا مفاجئًا.
كان سوتسكيفر أحد مؤسسي شركة OpenAI وكبير العلماء فيها. لقد كان أيضًا الرجل الذي كان من المفترض أن يجعل ChatGPT ومنتجات الذكاء الاصطناعي الأخرى آمنة بالنسبة لنا، وكان له دور فعال في إقالة ألتمان وعودة الرئيس التنفيذي. هذا ما قيل للجمهور، على الأقل.
اختار Sutskever مغادرة OpenAI في وقت كانت فيه أحدث تطورات ChatGPT تلفت الأنظار كثيرًا. أنا أتحدث عن نموذج GPT-4o الذي تم الكشف عنه بواسطة OpenAI قبل يوم واحد من حدث Google I/O 2024 الكبير، والذي ركز بالكامل تقريبًا على الذكاء الاصطناعي.
قلت في ذلك الوقت إنني لا أستطيع الانتظار لأرى ما الذي سيعمل عليه Sutskever بعد ذلك، حيث كان يروج “لمشروع ذو أهمية شخصية كبيرة بالنسبة لي والذي سأشارك تفاصيله في الوقت المناسب”. وبالتقدم سريعًا إلى منتصف شهر يونيو، أصبح لدينا الآن اسم المشروع المذكور والغرض منه.
تُسمى شركة الذكاء الاصطناعي الجديدة Safe Superintelligence Inc. (SSI)، وربما لن نسمع أي تفاصيل حول منتجاتها في أي وقت قريب.
لدى شركة Safe Superintelligence مؤسسان مشاركان آخران: دانييل جروس، الرئيس السابق لشركة Apple AI، ومهندس OpenAI السابق دانييل ليفي. أعلن Sutskever عن المشروع الجديد على X، حيث أوضح الغرض من الذكاء الفائق الآمن. وهذا جزء من الإعلان:
SSI هي مهمتنا، واسمنا، وخريطة طريق منتجاتنا بأكملها، لأنها هي محور تركيزنا الوحيد. إن فريقنا والمستثمرين ونموذج الأعمال لدينا جميعًا متوافقون لتحقيق مباحث أمن الدولة.
نحن نتعامل مع السلامة والقدرات جنبًا إلى جنب، حيث يتم حل المشكلات التقنية من خلال الهندسة الثورية والإنجازات العلمية. نحن نخطط لتطوير القدرات في أسرع وقت ممكن مع التأكد من أن سلامتنا تظل دائمًا في المقدمة.
بهذه الطريقة، يمكننا التوسع بسلام.
إن تركيزنا الفردي يعني عدم وجود أي تشتيت من خلال النفقات الإدارية العامة أو دورات المنتج، ويعني نموذج أعمالنا أن السلامة والأمن والتقدم كلها معزولة عن الضغوط التجارية قصيرة المدى.
يبدو ذلك رائعًا، على الأقل من الناحية النظرية. إن الشركة التي تطور الذكاء الفائق الآمن هي الحلم الذي لم ندرك، نحن البشر، أننا بحاجة إليه حتى وقت قريب.
نريد أن يكون الذكاء الفائق آمنًا. لا نريد أن يسيطر الذكاء الاصطناعي على العالم ويدمر البشرية في النهاية. هذا هو مصدر القلق، ولهذا السبب كان من المهم جدًا أن تعمل Sutskever على ضمان سلامة ChatGPT. ولهذا السبب أيضًا كانت التغييرات الهائلة في فريق المحاذاة الفائقة في OpenAI مزعجة للغاية.
لا يسعني إلا أن أتساءل عما إذا كان ما يريد Sutskever تقديمه ممكنًا أم لا. في مقابلة مع بلومبرجوقال Sutskever أن الشركة لن تطلق أي منتجات في أي وقت قريب. وأضاف: “هذه الشركة مميزة لأن منتجها الأول سيكون الذكاء الفائق الآمن، ولن تفعل أي شيء آخر حتى ذلك الحين”.
لم يكشف Sutskever عن أسماء داعميه أو مبلغ الأموال التي جمعها من أجل شركته الناشئة Safe Superintelligence. سوف يرغب هؤلاء الداعمون في الحصول على نوع من العائد، بغض النظر عن مدى توافقهم مع مصالح سوتسكيفر. من الصعب القيام بذلك بدون منتج تجاري.
الذكاء الفائق الآمن، المنتج، يجب أن يكون ذكاءً اصطناعيًا يتجاوز بكثير ما يمكن للبشر القيام به. يجب أن تكون الخطوة التالية في الذكاء الاصطناعي هي AGI (الذكاء العام الاصطناعي)، أو الذكاء الاصطناعي الذي يمكنه التفكير مثل البشر. لكن هذا ليس بالضرورة المسار الذي سنتخذه. يمكننا دائمًا الوصول إلى الذكاء الفائق قبل الذكاء الاصطناعي العام.
الذكاء الفائق الآمن لن يكون اللاعب الوحيد في الصناعة الذي يحاول تحقيق الذكاء الفائق. ومن المحتمل جدًا أن العديد من عمالقة التكنولوجيا والشركات الناشئة الأخرى، بما في ذلك OpenAI، يسعون أيضًا لتحقيق هذا الهدف.
بالإضافة إلى ذلك، وبغض النظر عن السمعة، لا تحتكر شركة Sutskever سلامة الذكاء الاصطناعي. ليس الأمر وكأن OpenAI وGoogle وMicrosoft وMeta وApple ترغب في تطوير ذكاء اصطناعي غير آمن. ولكن كل هذه الشركات سوف تكون قادرة على اختبار ابتكاراتها في مجال الذكاء الاصطناعي من خلال المنتجات التجارية، في حين لن تطلق شركة الذكاء الفائق الآمن أي شيء في أي وقت قريب.
سأقول أيضًا أن عمل Sutskever على الذكاء الاصطناعي الآمن لا يضمن أن الذكاء الاصطناعي الخاص به أو أي ذكاء اصطناعي آخر لن يصبح مارقًا. يمكن لأي شخص لديه الموارد المناسبة تدريب نماذج الذكاء الاصطناعي. ويظل الخطر النظري هو أن يصل شخص ما إلى الذكاء الاصطناعي العام أو الذكاء الفائق دون مواءمة الذكاء الاصطناعي بشكل صحيح مع مصالح البشرية.