أمن بيانات الشركة معرض للخطر من حسابات “Shadow AI”.
يؤدي الاستخدام المتزايد للذكاء الاصطناعي في مكان العمل إلى زيادة سريعة في استهلاك البيانات، مما يشكل تحديًا لقدرة الشركات على حماية البيانات الحساسة.
يسلط تقرير صدر في شهر مايو من شركة أمن البيانات Cyberhaven، بعنوان “The Cubicle Culprits”، الضوء على اتجاهات اعتماد الذكاء الاصطناعي وارتباطها بالمخاطر المتزايدة. اعتمد تحليل Cyberhaven على مجموعة بيانات لأنماط الاستخدام من ثلاثة ملايين عامل لتقييم اعتماد الذكاء الاصطناعي وآثاره في بيئة الشركات.
يحاكي الارتفاع السريع للذكاء الاصطناعي التحولات التحويلية السابقة، مثل الإنترنت والحوسبة السحابية. مثلما واجه مستخدمو السحابة الأوائل تحديات جديدة، يجب على شركات اليوم أن تتعامل مع التعقيدات التي أحدثها اعتماد الذكاء الاصطناعي على نطاق واسع، وفقًا للرئيس التنفيذي لشركة Cyberhaven هوارد تينج.
وقال لـ TechNewsWorld: “إن بحثنا حول استخدام الذكاء الاصطناعي ومخاطره لا يسلط الضوء على تأثير هذه التقنيات فحسب، بل يسلط الضوء أيضًا على المخاطر الناشئة التي يمكن أن توازي تلك التي تمت مواجهتها خلال الاضطرابات التكنولوجية الكبيرة في الماضي”.
تشير النتائج إلى إنذار بشأن احتمالية إساءة استخدام الذكاء الاصطناعي
يكشف تقرير Cubicle Culprits عن التسارع السريع في اعتماد الذكاء الاصطناعي في مكان العمل واستخدامه من قبل المستخدمين النهائيين والذي يفوق تكنولوجيا المعلومات في الشركات. وهذا الاتجاه بدوره يغذي حسابات “الذكاء الاصطناعي الظل” المحفوفة بالمخاطر، بما في ذلك المزيد من أنواع بيانات الشركة الحساسة.
تهيمن المنتجات المقدمة من ثلاثة عمالقة في مجال تكنولوجيا الذكاء الاصطناعي – OpenAI، وGoogle، وMicrosoft – على استخدام الذكاء الاصطناعي. تمثل منتجاتهم 96% من استخدامات الذكاء الاصطناعي في العمل.
ووفقا للبحث، قام العمال في جميع أنحاء العالم بإدخال بيانات الشركات الحساسة في أدوات الذكاء الاصطناعي، مما زاد بنسبة مثيرة للقلق بلغت 485٪ في الفترة من مارس 2023 إلى مارس 2024. ولا نزال في وقت مبكر من منحنى التبني. ويستخدم 4.7% فقط من الموظفين في الشركات المالية، و2.8% في شركات الأدوية وعلوم الحياة، و0.6% في شركات التصنيع أدوات الذكاء الاصطناعي.
يحدث 73.8% من استخدام ChatGPT في العمل من خلال حسابات غير خاصة بالشركة. وحذر تينغ من أنه على عكس الإصدارات الخاصة بالمؤسسات، تقوم هذه الحسابات بدمج البيانات المشتركة في النماذج العامة، مما يشكل خطرًا كبيرًا على أمن البيانات الحساسة.
“يتم إرسال جزء كبير من بيانات الشركة الحساسة إلى حسابات غير خاصة بالشركة. يتضمن هذا ما يقرب من نصف كود المصدر [50.8%]، مواد البحث والتطوير [55.3%]، وسجلات الموارد البشرية والموظفين [49.0%]،” هو قال.
يتم دمج البيانات المشتركة من خلال هذه الحسابات غير الخاصة بالشركة في النماذج العامة. نسبة استخدام الحسابات غير الخاصة بالشركة أعلى بالنسبة لـ Gemini (94.4%) وBard (95.9%).
نزيف بيانات الذكاء الاصطناعي بشكل لا يمكن السيطرة عليه
ويشير هذا الاتجاه إلى وجود ثغرة أمنية خطيرة. وقال تينغ إن الحسابات غير التابعة للشركة تفتقر إلى الإجراءات الأمنية القوية لحماية مثل هذه البيانات.
تصل معدلات اعتماد الذكاء الاصطناعي بسرعة إلى الأقسام الجديدة وحالات الاستخدام التي تتضمن بيانات حساسة. إن حوالي 27% من البيانات التي يضعها الموظفون في أدوات الذكاء الاصطناعي تعتبر حساسة، مقارنة بـ 10.7% قبل عام.
على سبيل المثال، ذهب 82.8% من المستندات القانونية التي وضعها الموظفون في أدوات الذكاء الاصطناعي إلى حسابات غير تابعة للشركة، مما قد يؤدي إلى كشف المعلومات علنًا.
وحذر تينغ من أن تضمين المواد الحاصلة على براءة اختراع في المحتوى الناتج عن أدوات الذكاء الاصطناعي يشكل مخاطر متزايدة. يمكن أن تؤدي عمليات إدخال التعليمات البرمجية المصدر التي تم إنشاؤها بواسطة الذكاء الاصطناعي خارج أدوات البرمجة إلى خطر حدوث ثغرات أمنية.
بعض الشركات لا تعرف شيئًا عن وقف تدفق البيانات غير المصرح بها والحساسة التي يتم تصديرها إلى أدوات الذكاء الاصطناعي بعيدًا عن متناول تكنولوجيا المعلومات. إنهم يعتمدون على أدوات أمان البيانات الموجودة التي تقوم فقط بفحص محتوى البيانات لتحديد نوعها.
“ما هو مفقود هو السياق الذي جاءت منه البيانات، ومن تفاعل معها، وأين تم تخزينها. فكر في مثال موظف يلصق رمزًا في حساب الذكاء الاصطناعي الشخصي للمساعدة في تصحيحه. “هل هو رمز المصدر من مستودع؟ هل هي بيانات العميل من تطبيق SaaS؟”
التحكم في تدفق البيانات ممكن
وأكد تينغ أن تثقيف العمال حول مشكلة تسرب البيانات يعد جزءًا قابلاً للتطبيق من الحل إذا تم إجراؤه بشكل صحيح. قامت معظم الشركات بتنفيذ تدريب دوري للتوعية الأمنية.
“ومع ذلك، فإن مقاطع الفيديو التي يتعين على العمال مشاهدتها مرتين في السنة سرعان ما يتم نسيانها. إن التعليم الذي يعمل بشكل أفضل هو تصحيح السلوك السيئ على الفور في الوقت الحالي.
وقد وجدت Cyberhaven أنه عندما يتلقى العمال رسالة منبثقة لتدريبهم أثناء الأنشطة المحفوفة بالمخاطر، مثل لصق كود المصدر في حساب ChatGPT الشخصي، فإن السلوك السيئ المستمر ينخفض بنسبة 90٪.
تفهم تقنية شركته، اكتشاف البيانات والاستجابة لها (DDR)، كيفية نقل البيانات واستخدام هذا السياق لحماية البيانات الحساسة. تدرك التكنولوجيا أيضًا الفرق بين حساب الشركة والحساب الشخصي لـ ChatGPT.
تتيح هذه الإمكانية للشركات فرض سياسة تمنع الموظفين من لصق البيانات الحساسة في الحسابات الشخصية مع السماح لتلك البيانات بالتدفق إلى حسابات المؤسسة.
تطور مفاجئ في من هو المخطئ
قامت شركة Cyberhaven بتحليل مدى انتشار المخاطر الداخلية بناءً على ترتيبات مكان العمل، بما في ذلك عن بعد، وفي الموقع، والهجين. وجد الباحثون أن موقع العامل يؤثر على انتشار البيانات عند وقوع حادث أمني.
“كشف بحثنا عن تطور مفاجئ في السرد. وكشف أن الموظفين داخل المكاتب، الذين يعتبرون تقليديًا الرهان الأكثر أمانًا، يقودون الآن مهمة استخلاص بيانات الشركات.
وعلى عكس ما هو متوقع، فإن العاملين في المكاتب هم أكثر عرضة بنسبة 77٪ من نظرائهم البعيدين لتسريب البيانات الحساسة. ومع ذلك، عندما يقوم العاملون في المكاتب بتسجيل الدخول من خارج الموقع، فإنهم أكثر عرضة بنسبة 510٪ لتسرب البيانات مقارنة بالتواجد في الموقع، مما يجعل هذا الوقت الأكثر خطورة بالنسبة لبيانات الشركة، وفقًا لتينغ.