أخبار

يمكن للمشاهير إلغاء الاشتراك مع Openai


نموذج توليد صور ChatGPT 4O الجديد هو حديث المدينة ، وليس فقط لأسباب وجيهة. الجميع يعجدون قدرات AI الجديدة المذهلة ، والتي تتضمن توليد نص مقروء في الصور ، وإنشاء صور مزيفة من الصور الحقيقية ، وإنشاء أعماق من المشاهير ، وتكرار محتوى محمي بحقوق الطبع والنشر مثل أحرف الاستوديو Ghibli. يحدث كل شيء بسرعة لا يصدق ، مع قدرة الذكاء الاصطناعي على الاستجابة لاحتياجاتك.

لكن بعض الناس سارعوا إلى الإشارة إلى الأشياء السيئة حول نموذج صورة الذكاء الاصطناعى الجديد. أولاً ، المشكلة الأكثر وضوحًا التي لا نتحدث عنها حقًا هي أن ChatGPT قد تعاملت مع ضربة سريعة لجميع أنواع منشئي المحتوى ، بما في ذلك مصممي الجرافيك والمصورين. بالطبع ، لدينا بالفعل برامج أخرى لعلم الذكاء الاصطناعي التي تعرض تلك المهن للخطر. هذه ليست مشكلة أمان chatgpt أيضًا.

حقيقة أن الصور التي أنشأها ChatGPT لا تحتوي على علامة مائية مرئية لإبلاغ الأشخاص المطمئنين إلى أنها ليست صورًا حقيقية هي مصدر قلق كبير للسلامة. أكثر وضوحًا هو جدل استوديو Ghibli ، والذي يوضح أن Openai على استعداد للسماح لتوليد الصور 4O بسهولة بمحتوى محمي بحقوق الطبع والنشر.

إن الشيء الأكثر إزعاجًا حول قدرات توليد الصور الجديدة في ChatGpt هو مدى سهولة صنع أعماق المشاهير. هذا الأمر مثير للقلق بالنسبة لي ، وهو مستخدم للإنترنت ، لأن الممثلين الخبيثين لديهم وصول غير مقيد إلى الأداة.

بدأ Openai الانتباه إلى الانتقادات التي تلقاها منذ إطلاق Generation 4O Image ، لكنها لا تتخذ أي إجراء ، خاصةً في مشكلة DeepFake. اتضح أن الطريقة الوحيدة لمنع شخص ما من استخدام وجهك مع chatgpt هي إلغاء الاشتراك منه مع Openai.

كما أشرت من قبل ، لم يتناول Openai أبداً هذه المسائل الأمنية ChatGpt في إعلانها الأصلي. لكن الشركة أعادت تغريد منشور مدونة من مهندس Openai Joanne Jang شرح ميزات أمان LAX في توليد صور ChatGPT 4O. كما أعاد سام التمان إعادة تغريد نفس المدونة. لماذا لا تنشرها على مدونة Openai إذا كان هذا هو الموقف الرسمي للشركة؟

جانغ ، الذي يقود السلوك النموذجية في Openai ، أخذ إلى Substack لشرح ميزات الأمان LAX في توليد صور ChatGPT 4O. يوضح المهندس حالة Openai التي تمنح chatgpt المزيد من الحرية حتى يتمكن المستخدمون من إطلاق العنان لإبداعهم بدلاً من إيقافهم من خلال رفض الذكاء الاصطناعى لإنشاء صور بناءً على ميزات أمان أكثر حدة.

يقول جانج: “الصور حشوية” ، وأنا أوافق بالتأكيد. “هناك شيء قوي وعشور حول الصور ؛ يمكنهم تقديم فرحة وصدمة لا مثيل لها. على عكس النص ، تتجاوز الصور حواجز اللغة وتثير استجابات عاطفية متنوعة. يمكنهم توضيح الأفكار المعقدة على الفور.”

أيضًا ، من الرائع أن نرى أن Openai أكثر مرونة عندما يتعلق الأمر بميزات الرقابة. يعطي Jang مثالًا على كيفية محتوى ChatGpt الهجومي:

عندما يتعلق الأمر بالمحتوى “الهجومي” ، فقد دفعنا أنفسنا للتفكير فيما إذا كان أي عدم الراحة ينبع من آرائنا أو تفضيلاتنا الشخصية مقابل إمكانية الأذى في العالم الحقيقي. بدون إرشادات واضحة ، رفض النموذج سابقًا طلبات مثل “جعل عيون هذا الشخص تبدو أكثر آسيوية” أو “جعل هذا الشخص أثقل ، مما يعني عن غير قصد أن هذه الصفات كانت مسيئة بطبيعتها.

تغطي المدونة أيضًا استخدام رموز الكراهية في الصور و “الحماية القوية والدرابزين الأكثر إحكاما” للأشخاص الذين تقل أعمارهم عن 18 عامًا.

ما هو أكثر إشكالية هو انفتاح Openai للسماح ChatGpt بإنشاء DeepFakes بهذه السهولة.

فيما يلي تفسير Jang لكيفية معالجة ChatGpt 40 Generation مع الأرقام العامة:

نحن نعلم أنه يمكن أن يكون صعبًا مع الشخصيات العامة – خاصةً عندما تطمس الخطوط بين الأخبار والسخرية ومصالح الشخص الذي يتم تصويره. نريد أن تنطبق سياساتنا بشكل عادل ومتساوي للجميع ، بغض النظر عن “وضعهم”. ولكن بدلاً من أن نكون محكمين من “مهم بما فيه الكفاية” ، قررنا إنشاء قائمة إلغاء الاشتراك للسماح لأي شخص يمكن أن يصور من قبل نماذجنا أن يقرر بأنفسهم.

تذكر عندما استدعت سكارليت جوهانسون مقطع فيديو Deepfake Anti-Kanye الذي استخدم وجهها دون إذنها وطلبت من الحكومة اتخاذ إجراءات ضد استخدام DeepFakes؟

حسنًا ، يجعل ChatGPT من الأسهل من أي وقت مضى أن يتوصل أي شخص إلى DeepFakes يعرض المشاهير في صور مزيفة. أنا لا أتحدث عن صور Ghibli-Style التي تُظهر الرئيس ترامب يعلن عن مبادرة Stargate AI. كلنا نعرف كيفية تفسير ذلك. أنا أتحدث عن صور منظمة العفو الدولية التي لا يمكن تمييزها من الصور الحقيقية ويمكنها التلاعب بالرأي العام.

هجاء لا علاقة له ، أيضا. أولئك القادرين على رسم الرسوم الكاريكاتورية التي تتميز بخصائص سياسية للسخرية من أفعالهم لم يحتاجوا أبدًا إلى chatgpt للقيام بذلك. أيضا ، الناس الذين يرون تلك الصور سوف يتعرفون على هجاء وليس حقيقي. الآن ، يجعل Chatgpt من السهل للغاية إنشاء أخبار مزيفة.

والأكثر إزعاجًا هو أن يانغ يقول إن الأشخاص الذين يشعرون بأنهم “مهمون بما فيه الكفاية” يمكنهم إلغاء الاشتراك. أين؟ كيف؟ أين القائمة؟ لماذا لم يعلن Openai هذه القائمة قبل إتاحة توليد صور ChatGpt 4O للجماهير؟ بعد كل شيء ، بدأت ChatGpt بالفعل في استخدام المشاهير في إبداعات ChatGpt الخاصة بهم ، وقد لا يحب هؤلاء المشاهير ذلك.

من المؤكد أنه يبدو أن Openai يستخدم منتجًا جديدًا لتوليد الصور لتقديم ميزات أمان AI أكثر بكثير من ذي قبل. آمل ألا يكون هذا هو الحال ، ولكن هذا ما يبدو عليه الآن. تؤكد مدونة Jang أيضًا أن Openai لن يتخذ بالضرورة مقاربة أمان أقوى لأداة توليد الصور 4O على الفور.

ثم مرة أخرى ، غادر الكثير من مهندسي السلامة من الذكاء الاصطناعى Openai في السنوات الماضية أنه من المنطقي رؤية الشركة تخفض حماية السلامة. بالمناسبة ، ليس فقط Openai هو الذي سيحدث سياسة أمان متساهلة للغاية لنماذج صور الذكاء الاصطناعى. قام الآخرون بذلك أيضًا. إنه مجرد أن Chatgpt قد أصبح فيروسيًا لسلطاتها المذهلة لتوليد الصور ، لذلك لا يمكننا تجاهل بروتوكولات السلامة التي تحكمها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى