تطبيق ChatGPT iPhone يثير مخاوف الخصوصية
منذ أن قدمت OpenAI خدمة ChatGPT ، حذر المدافعون عن الخصوصية المستهلكين من التهديد المحتمل للخصوصية الذي تشكله تطبيقات الذكاء الاصطناعي التوليدية. أثار وصول تطبيق ChatGPT في متجر تطبيقات Apple جولة جديدة من الحذر.
“[B]حذر Muskaan Saxena في Tech Radar ، قبل أن تدخل بسرعة إلى التطبيق ، احذر من التعامل بشكل شخصي مع الروبوت وتعريض خصوصيتك للخطر.
وأوضحت أن تطبيق iOS يأتي مع مقايضة صريحة يجب أن يكون المستخدمون على دراية بها ، بما في ذلك هذا التحذير: “قد تتم مراجعة الدردشات المجهولة الهوية من قبل مدرب الذكاء الاصطناعي لدينا لتحسين أنظمتنا.”
ومع ذلك ، فإن إخفاء الهوية لا يمثل تذكرة للخصوصية. يتم تجريد الدردشات المجهولة الهوية من المعلومات التي يمكن أن تربطها بمستخدمين معينين. “ومع ذلك ، قد لا يكون إخفاء الهوية إجراءً مناسبًا لحماية خصوصية المستهلك لأنه لا يزال من الممكن إعادة تحديد البيانات المجهولة الهوية من خلال دمجها مع مصادر أخرى للمعلومات” ، هكذا قال جوي ستانفورد ، نائب رئيس الخصوصية والأمان في Platform.sh ، صانع منصة خدمات قائمة على السحابة للمطورين المقيمين في باريس ، وفقًا لـ TechNewsWorld.
أوضح جين كالتريدر ، الباحث الرئيسي في مشروع Mozilla Privacy Not Included: “لقد تم العثور على أنه من السهل نسبيًا إلغاء إخفاء هوية المعلومات ، خاصة إذا تم استخدام معلومات الموقع”.
قالت لـ TechNewsWorld: “علنًا ، تقول OpenAI إنها لا تجمع بيانات الموقع ، لكن سياسة الخصوصية الخاصة بها في ChatGPT تقول إن بإمكانهم جمع تلك البيانات”.
ومع ذلك ، يحذر OpenAI مستخدمي تطبيق ChatGPT من أن معلوماتهم ستُستخدم لتدريب نموذج اللغة الكبير الخاص به. “إنهم صادقون في ذلك. قال كالتيريدر: “إنهم لا يخفون أي شيء”.
أخذ الخصوصية على محمل الجد
أوضح كاليب ويذرز ، مساعد باحث في مركز الأمن الأمريكي الجديد ، وهو مركز أبحاث للأمن القومي والدفاع في واشنطن العاصمة ، أنه إذا كتب المستخدم اسمه ومكان عمله والمعلومات الشخصية الأخرى في استعلام ChatGPT ، فإن تلك البيانات لن يتم إخفاء هويته.
“عليك أن تسأل نفسك ،” هل هذا شيء أود أن أقوله لموظف OpenAI؟ “قال لـ TechNewsWorld.
ذكرت شركة OpenAI أنها تأخذ الخصوصية على محمل الجد وتنفذ تدابير لحماية بيانات المستخدم ، كما أشار مارك إن فينا ، الرئيس والمحلل الرئيسي في SmartTech Research في سان خوسيه ، كاليفورنيا.
قال لـ TechNewsWorld: “مع ذلك ، من الجيد دائمًا مراجعة سياسات وممارسات الخصوصية المحددة لأي خدمة تستخدمها لفهم كيفية التعامل مع بياناتك وماهية الحماية الموجودة”.
أضاف جيمس ماكويغان ، محامي الوعي الأمني في KnowBe4 ، وهو مزود تدريب للتوعية الأمنية في كليرووتر بولاية فلوريدا ، أنه قد توجد ثغرات أمنية يمكن أن تستغل من قبل الجهات الفاعلة الخبيثة ، نظرًا لأنها مخصصة لأمن البيانات كمؤسسة.
قال لـ TechNewsWorld: “من المهم دائمًا توخي الحذر والنظر في ضرورة مشاركة المعلومات الحساسة لضمان أن تكون بياناتك آمنة قدر الإمكان”.
وأضاف: “حماية خصوصيتك هي مسؤولية مشتركة بين المستخدمين والشركات التي تجمع وتستخدم بياناتهم ، وهي موثقة في اتفاقيات ترخيص المستخدم النهائي الطويلة وغير المقروءة في كثير من الأحيان”.
حماية مدمجة
أشار McQuiggan إلى أن مستخدمي تطبيقات الذكاء الاصطناعي التوليدية معروفون بإدخال معلومات حساسة مثل أعياد الميلاد وأرقام الهواتف والعناوين البريدية والبريد الإلكتروني في استفساراتهم. وقال: “إذا لم يكن نظام الذكاء الاصطناعي مؤمنًا بشكل كافٍ ، فيمكن الوصول إليه من قبل أطراف ثالثة واستخدامه لأغراض خبيثة مثل سرقة الهوية أو الإعلان المستهدف”.
وأضاف أن تطبيقات الذكاء الاصطناعي التوليدية يمكن أن تكشف عن غير قصد معلومات حساسة حول المستخدمين من خلال المحتوى الذي تم إنشاؤه. وتابع: “لذلك ، يجب أن يعرف المستخدمون مخاطر الخصوصية المحتملة لاستخدام تطبيقات الذكاء الاصطناعي التوليفية واتخاذ الخطوات اللازمة لحماية معلوماتهم الشخصية.”
على عكس أجهزة الكمبيوتر المكتبية والمحمولة ، تحتوي الهواتف المحمولة على بعض ميزات الأمان المضمنة التي يمكن أن تحد من عمليات اقتحام الخصوصية من خلال التطبيقات التي تعمل عليها.
ومع ذلك ، كما يشير McQuiggan ، “في حين أن بعض التدابير ، مثل أذونات التطبيق وإعدادات الخصوصية ، يمكن أن توفر مستوى معينًا من الحماية ، إلا أنها قد لا تحمي معلوماتك الشخصية تمامًا من جميع أنواع تهديدات الخصوصية كما هو الحال مع أي تطبيق تم تحميله على الهاتف الذكي. “
وافق Vena على أن التدابير المضمنة مثل أذونات التطبيق وإعدادات الخصوصية ولوائح متجر التطبيقات توفر مستوى معينًا من الحماية. وقال: “لكنها قد لا تكون كافية للتخفيف من جميع تهديدات الخصوصية”. “يتبع مطورو التطبيقات والشركات المصنعة للهواتف الذكية مناهج مختلفة للخصوصية ، ولا تلتزم جميع التطبيقات بأفضل الممارسات.”
حتى ممارسات OpenAI تختلف من سطح المكتب إلى الهاتف المحمول. “إذا كنت تستخدم ChatGPT على موقع الويب ، فلديك القدرة على الدخول في عناصر التحكم في البيانات وإلغاء الاشتراك في الدردشة المستخدمة لتحسين ChatGPT. وأشار كالتريدر إلى أن هذا الإعداد غير موجود في تطبيق iOS.
احذر معلومات خصوصية متجر التطبيقات
وجد Caltrider أيضًا أن الأذونات التي يستخدمها تطبيق OpenAI’s iOS غامضة بعض الشيء ، مشيرًا إلى أنه “في متجر Google Play ، يمكنك التحقق من الأذونات التي يتم استخدامها ورؤية الأذونات المستخدمة. لا يمكنك فعل ذلك من خلال متجر تطبيقات Apple “.
حذرت المستخدمين من الاعتماد على معلومات الخصوصية الموجودة في متاجر التطبيقات. ولاحظت أن “البحث الذي أجريناه في معلومات أمان متجر Google Play يُظهر أنه حقًا غير موثوق به”.
وتابعت قائلة: “تُظهر الأبحاث التي أجراها آخرون في متجر تطبيقات Apple أنه غير موثوق أيضًا”. “يجب ألا يثق المستخدمون في معلومات أمان البيانات التي يجدونها على صفحات التطبيق. يجب أن يجروا أبحاثهم بأنفسهم ، وهو أمر صعب ومخادع “.
وأضافت: “يجب أن تكون الشركات أفضل في التحلي بالصدق فيما يتعلق بما يجمعونه ويشاركونه”. “OpenAI صادق بشأن كيفية استخدامهم للبيانات التي يجمعونها لتدريب ChatGPT ، لكنهم يقولون بعد ذلك إنه بمجرد إخفاء هوية البيانات ، يمكنهم استخدامها بعدة طرق تتجاوز المعايير في سياسة الخصوصية.”
أشار ستانفورد إلى أن لدى Apple بعض السياسات المعمول بها والتي يمكنها معالجة بعض تهديدات الخصوصية التي تشكلها تطبيقات الذكاء الاصطناعي التوليدية. يشملوا:
- طلب موافقة المستخدم على جمع البيانات ومشاركتها بواسطة التطبيقات التي تستخدم تقنيات الذكاء الاصطناعي التوليفية ؛
- توفير الشفافية والتحكم في كيفية استخدام البيانات ومن قبل من من خلال ميزة AppTracking Transparency التي تتيح للمستخدمين إلغاء الاشتراك في التتبع عبر التطبيقات ؛
- فرض معايير ولوائح الخصوصية لمطوري التطبيقات من خلال عملية مراجعة App Store ورفض التطبيقات التي تنتهكها.
ومع ذلك ، أقر بأن “هذه الإجراءات قد لا تكون كافية لمنع تطبيقات الذكاء الاصطناعي من إنشاء محتوى غير مناسب أو ضار أو مضلل قد يؤثر على خصوصية المستخدمين وأمنهم”.
دعوة لقانون الخصوصية الفيدرالي للذكاء الاصطناعي
“OpenAI هي شركة واحدة فقط. أضاف هودان أومار ، كبير محللي سياسات الذكاء الاصطناعي في مركز ابتكار البيانات ، وهو مؤسسة فكرية تدرس تقاطع البيانات والتكنولوجيا و السياسة العامة ، في واشنطن العاصمة
وقالت لموقع TechNewsWorld: “نحتاج إلى قانون فيدرالي لخصوصية البيانات لضمان التزام جميع الشركات بمجموعة من المعايير الواضحة”.
أضاف Caltrider ، “مع النمو والتوسع السريع للذكاء الاصطناعي” ، “هناك بالتأكيد حاجة إلى وجود هيئات رقابة وأنظمة قوية وقوية لمراقبة بقيتنا لأن هذا ينمو ويصبح أكثر انتشارًا”.