يؤدي استخدام الذكاء الاصطناعي للموظفين إلى كشف بيانات المؤسسة الحساسة

يتسارع اعتماد الذكاء الاصطناعي (AI) في مكان العمل بشكل أسرع مما تستطيع معظم المؤسسات تأمينه، مما يجعل استخدام الموظفين غير خاضع للرقابة ومحفوفًا بالمخاطر بشكل متزايد.
وفقًا لبحث جديد أجرته شركة Cyberhaven لأمن البيانات المدعومة بالذكاء الاصطناعي، فإن ما يقرب من 40% من جميع تفاعلات الموظفين مع أدوات الذكاء الاصطناعي تتضمن الآن بيانات حساسة للشركة. ومع تجاوز العاملين للقنوات الرسمية لاستخدام أدوات متخصصة مثل كلود وديب سيك، تجد المنظمات نفسها منقسمة بين متبنين “حدوديين” و”متخلفين” يفقدون السيطرة على أصول المعلومات الأكثر قيمة لديهم.
أصدر Cyberhaven Labs، فريق البحث الداخلي للشركة، نتائجه يوم الخميس بناءً على تتبع نسب البيانات لكيفية انتقال المعلومات بين نقاط النهاية وتطبيقات SaaS وأدوات الذكاء الاصطناعي في الوقت الفعلي. في كثير من الحالات، تعطي الشركات الأولوية للنمو والتجريب. يتبع ذلك الأمن والحوكمة والرقابة.
وفي الوقت نفسه، فإن معظم استخدامات الذكاء الاصطناعي اليوم تحدث في الأدوات التي تنطوي على مخاطر عالية. يقوم الموظفون بإدخال البيانات الحساسة بشكل روتيني في نظام بيئي واسع ومتنامي لأدوات GenAI ومساعدي الترميز والوكلاء المصممين خصيصًا.
بالنسبة للعديد من المنظمات، يعد استخدام الذكاء الاصطناعي بمثابة نوع من الغرب المتوحش، وفقًا للتقرير. تتكاثر الأدوات بشكل أسرع من السياسات، وغالبًا ما يتجاوز استخدام الموظفين مستوى الرؤية، وتتدفق البيانات الحساسة عبر النماذج والتطبيقات والحسابات ذات التحكم المركزي المحدود.
قال نيشانت دوشي، الرئيس التنفيذي لشركة Cyberhaven، لـ TechNewsWorld: “من الصعب بشكل متزايد تأمين الاستخدام الواسع النطاق للأدوات، ولكن ما يمكن ويجب على المؤسسات فعله هو التأكد من أن حلول أمن البيانات الخاصة بها تشمل استخدام الذكاء الاصطناعي”.
أداة الذكاء الاصطناعي تغمر شبكات المؤسسات
تقوم مجموعة صغيرة من المنظمات الحدودية بنشر مئات الأدوات بقوة لما يقرب من 70% من القوى العاملة لديها. لا يزال المتخلفون متوقفين عند اعتماد 2٪. يؤدي هذا الانقسام إلى خلق فراغ حيث يقوم الموظفون، مدفوعين بمتطلبات الإنتاجية، بتجاوز حواجز الحماية الخاصة بالشركة لبناء أنظمة الظل الخاصة بهم.
تشير أبحاث Cyberhaven إلى خمس نتائج أساسية:
- تستخدم المؤسسات التي تتمتع بأعلى معدلات اعتماد الذكاء الاصطناعي أكثر من 300 أداة من أدوات GenAI داخل بيئة مؤسستها.
- أصبحت النماذج الصينية ذات الوزن المفتوح الآن مفضلة للمؤسسات، حيث تمثل نصف الاستخدام القائم على نقطة النهاية بين مستخدمي Cyberhaven.
- تظل أدوات GenAI محفوفة بالمخاطر في جميع المجالات. عند النظر إلى أفضل 100 تطبيق GenAI SaaS الأكثر استخدامًا، يتم تصنيف 82% منها على أنها ذات مخاطر “متوسطة” أو “عالية” أو “حرجة”.
- يستطيع ثلث الموظفين الوصول إلى أدوات GenAI من الحسابات الشخصية، مما يزيد من المخاطر الإجمالية وShadow AI.
- يقوم الموظفون بتغذية أدوات الذكاء الاصطناعي ببيانات حساسة، حيث أن أكثر من الثلث (39.7%) من إجمالي التفاعلات مع أدوات الذكاء الاصطناعي تتضمن بيانات حساسة.
يوضح التوزيع التالي مدى تصاعد عدد أدوات GenAI المستخدمة بين الشركات الأكثر عدوانية.
يتم تصنيف أكثر من أربعة من أصل خمسة من تطبيقات GenAI SaaS الأكثر استخدامًا على نطاق واسع على أنها ذات مخاطر متوسطة أو عالية أو حرجة، وفقًا لـ Cyberhaven.
وحث دوشي قائلاً: “يجب على المؤسسات فهم وتتبع دورة الحياة الكاملة للبيانات لتأمينها بشكل صحيح”.
الفجوة الحدودية: استراتيجية أم ثقافة متساهلة؟

واقترح دوشي أن المنظمات الحدودية تنفذ على الأرجح استراتيجية مؤسسية رسمية تشجع الموظفين على دمج الذكاء الاصطناعي في سير العمل اليومي. يؤدي هذا التشجيع بعد ذلك إلى ثقافة داخلية أكثر تساهلاً تجاه تجربة ميزات وتقنيات الذكاء الاصطناعي الجديدة، سواء كانت مسموحة أم لا.
وقال: “الشركات المتأخرة تعوقها في المقام الأول الوضع الأمني المبدئي وأنظمة البيانات القديمة المجزأة التي تجعل التكامل الرسمي محفوفًا بالمخاطر أو معقدًا للغاية”.
هناك أيضًا نقص متأصل في الثقة. تفتقر هذه المؤسسات إلى الثقة الكاملة في قدرة موظفيها على استخدام هذه الأدوات بشكل آمن أو بما يتماشى مع قيم الشركة.
وأضاف: “هذا يخلق فجوة حيث تنظر القيادة في هذه المنظمات إلى الذكاء الاصطناعي باعتباره تهديدًا يجب إدارته. وتنظر إليه الشركات الحدودية كمحرك إنتاجية يمكن تمكينه بشكل آمن”.
نماذج الذكاء الاصطناعي الصينية تدخل المؤسسة بسرعة
يُظهر التحول المفاجئ في توازن قوة الذكاء الاصطناعي أن النماذج الصينية ذات الوزن المفتوح تنتقل من المنتجات الخارجية إلى المنتجات الأساسية للمؤسسات بين عشية وضحاها تقريبًا. تؤدي منتجات مثل DeepSeek إلى زيادة مذهلة في استخدام الذكاء الاصطناعي القائم على نقطة النهاية.
وتأتي هذه الزيادة في أعقاب إطلاق DeepSeek-R1 في يناير 2025، والذي أثبت أن الصين يمكن أن تضاهي – وفي مهام محددة مثل البرمجة، من المحتمل أن تتجاوز – النماذج الحدودية الأمريكية، وفقًا لدوشي. بالنسبة للعديد من الموظفين، فإن إغراء الأداء المتفوق وسهولة تجاوز مرشحات الشركات يفوق الحذر الجيوسياسي. تخلق هذه العوامل بصمة هائلة وغير خاضعة للرقابة للسيليكون الصيني داخل الشبكات الغربية.
وأكد أن “القدرات المماثلة لهذه النماذج، جنبًا إلى جنب مع ميل LMArena إلى توفير نماذج ذات وزن مفتوح، أدت إلى 50% من الاستخدام القائم على نقطة النهاية”.
العمال غير المدركين يكشفون البيانات الحساسة
كما ذكرنا أعلاه، فإن 39.7% من التفاعلات تتضمن بيانات حساسة. وينتج بعض ذلك على الأقل من قيام الموظفين عن عمد بتحميل معلومات خاصة مثل كود المصدر. ويؤدي ذلك أيضًا إلى حوادث حساسية غير مقصودة عندما يقوم المستخدمون بدمج أدوات الذكاء الاصطناعي في مسارات العمل القياسية مثل إدارة علاقات العملاء والبحث والتطوير.

يقوم الموظفون بتغذية أدوات الذكاء الاصطناعي بمجموعة واسعة من المعلومات التجارية الحساسة، بما في ذلك كود المصدر والبحث والمبيعات والموارد البشرية والتمويل.
قال دوشي: “لا يزال الذكاء الاصطناعي تقنية جديدة نسبيًا، ولا يفهم الموظفون تمامًا ما يعنيه وضع البيانات الحساسة في نظام الذكاء الاصطناعي. وهذا يعني أن بياناتك لم تعد تحت سيطرة الشركة وهي الآن موجودة لدى بائع الذكاء الاصطناعي”.
والأسوأ من ذلك أن بعض هؤلاء البائعين يقومون بالفعل بتدريب نماذجهم باستخدام البيانات المقدمة من المستخدم. وأضاف أنه بالنسبة للموظفين، قد لا يكون من الواضح ما الذي يشكل بيانات حساسة أو كيفية عمل الذكاء الاصطناعي.
وأوضح: “لذلك، يعد نقص الوعي الأمني بين الموظفين مشكلة رئيسية في استخدام الذكاء الاصطناعي في المؤسسات. بالإضافة إلى ذلك، فإن نقص الوعي هو سبب تردد العديد من المؤسسات في تشجيع استخدام الذكاء الاصطناعي، واختيار سياسة “الحظر أولاً”.
الحسابات الشخصية هي الجاني المحجبات
ستون بالمائة من استخدام Claude وPerplexity يحدث عبر الحسابات الشخصية للموظفين. إنه يساهم في تفوق Shadow AI على أدوات الشركة الخاضعة للعقوبات في تجربة المستخدم والمرافق.
يعد Claude وPerplexity من الحالات المتطورة لأنهما أدوات متخصصة. يعتمد المستخدمون على نطاق واسع كلود باعتباره أفضل مبرمج، أما Perplexity فهو محرك بحث مصمم خصيصًا للذكاء الاصطناعي.
عرض دوشي: “أعتقد أن الأشخاص يستخدمون Claude وPerplexity على وجه التحديد لهذه الأغراض، على التوالي، حيث إنهما يوفران تجربة مستخدم أفضل من أدوات الشركات الخاضعة للعقوبات”.
ووافق على أن Shadow AI يمثل بشكل عام مشكلة متنامية، حيث يمكن لأدوات الذكاء الاصطناعي معالجة المعلومات الحساسة بسرعة الآلة. يمكن للنسخ المشتقة من البيانات الأكثر قيمة للمؤسسة أن تتكاثر بسرعة خارج نطاق السيطرة المركزية.
وقال: “إن مكافحة هذا الأمر تتطلب أمنًا قويًا للبيانات وإدارة البيانات”.
تطبيقات GenAI أعمال محفوفة بالمخاطر
وصنف التقرير 82% من أفضل 100 تطبيق GenAI على أنها “محفوفة بالمخاطر”. لكن هذا لا يعني أن سوق الذكاء الاصطناعي الحالي على مستوى المؤسسات يفشل في توفير الميزات المحددة التي يحتاجها الموظفون، وفقًا لدوشي.
يشرح الرسم البياني أدناه مستويات المخاطر بين أدوات GenAI SaaS الأكثر استخدامًا.

يتم تصنيف أكثر من أربعة من أصل خمسة من تطبيقات GenAI SaaS الأكثر استخدامًا على نطاق واسع على أنها ذات مخاطر متوسطة أو عالية أو حرجة، وفقًا لـ Cyberhaven.
تنتج النسبة العالية من التطبيقات المحفوفة بالمخاطر عن إعطاء الموظفين الأولوية لإمكانية الوصول السلس على القنوات الرسمية. تقدم العديد من هذه التطبيقات المتخصصة مسارات عمل متخصصة لا تتطلب أي خبرة سريعة، مما يسمح للعاملين بتجاوز منحنى التعلم.
خذ NoteGPT كمثال. فهو يوفر ملخصًا للذكاء الاصطناعي وناسخًا ومحول PDF وكاتبًا خارج الصندوق.
وحذر دوشي قائلاً: “بالإضافة إلى ذلك، فإن العديد من أدوات المؤسسات الجديدة التي تعد بالأمان والابتكار غالبًا ما تفتقر إلى قدرات الأدوات التي أنشأها المطورون وأصدروها أو حتى أدوات GenAI الأساسية مثل Claude”.
موت Chatbot وما بعده
إن التحول نحو الوكلاء المضمنين وأدوات البرمجة يبشر بعصر جديد. ربما يكون برنامج الدردشة الآلي المستقل القائم على الذكاء الاصطناعي، بواجهته ذات نمط ChatGPT، قد وصل بالفعل إلى ذروته لصالح الذكاء الاصطناعي غير المرئي والمتكامل.
ومع ذلك، يعتقد دوشي أنه من السابق لأوانه الجزم بذلك. لا يشهد الباحثون سوى استقرار في اعتماد تطبيقات الذكاء الاصطناعي، في حين يستمر وكلاء تشفير الذكاء الاصطناعي المتخصصون في النمو.
واقترح قائلاً: “بدلاً من رؤيتها على أنها روبوتات محادثة في تراجع، أود أن أزعم أن بعض أدوات الذكاء الاصطناعي، مثل وكلاء البرمجة، قامت بعمل رائع في تطبيق الذكاء الاصطناعي على المجالات المتخصصة، وبالتالي فهي تحظى بالاعتراف من مستخدميها، مما يؤدي إلى النمو”.
تشير البيانات إلى أن استخدام الذكاء الاصطناعي هو الأكثر انتشارًا بين المهندسين. رأى دوشي أنه من المنطقي بالنسبة لهم أن يلجأوا إلى أدوات البرمجة والوكلاء المضمنين لسير عملهم اليومي المحدد، بدلاً من موظف التسويق الذي قد يحتاج إلى أداة GenAI للقيام بمهام أساسية لمرة واحدة.
ما الذي سيأتي بعد ذلك بالنسبة للذكاء الاصطناعي في مكان العمل؟
وفقًا لدوشي، سيستمر استخدام الذكاء الاصطناعي، سواء كان مسموحًا به أو غير ذلك، في الارتفاع. سيكون عدد تطبيقات الذكاء الاصطناعي المستخدمة والنسبة المئوية للموظفين الذين يستخدمونها بمثابة معايير قوية للشركات التي اعتمدت الذكاء الاصطناعي أو تخطط للقيام بذلك لتحقيق مكاسب إنتاجية استراتيجية.
أشار بعض الأشخاص إلى عام 2025 باعتباره عام عملاء الذكاء الاصطناعي. ورغم أن هذا صحيح جزئيًا، إلا أنه يتوقع أن المزيد من الشركات سوف تطور وتتبنى عملاء الذكاء الاصطناعي في السنوات القادمة.
وحث على أن “هذه مجرد البداية، مما يجعل تأمين هذه الأدوات وإدارتها أكثر أهمية”.
تم توفير المخططات في هذه المقالة بواسطة Cyberhaven.




