الذكاء الاصطناعي يجعل الدفاعات السيبرانية قديمة الطراز بسرعة

يفوق اعتماد المؤسسات السريع للذكاء الاصطناعي قدرة المؤسسات على تأمين عملياتها، وفقًا لتقرير جديد لأمن البنية التحتية يشير إلى أن الهجمات التي تعتمد على الذكاء الاصطناعي تتحرك بالفعل بشكل أسرع من قدرة الدفاعات التقليدية على الاستجابة.
في تقريرها لأمن الذكاء الاصطناعي ThreatLabz 2026، تحذر شركة Zscaler من أن المؤسسات غير مستعدة للموجة التالية من المخاطر السيبرانية التي يحركها الذكاء الاصطناعي، حتى عندما يصبح الذكاء الاصطناعي جزءًا لا يتجزأ من العمليات التجارية.
ويتوقع التقرير، المستند إلى تحليل ما يقرب من تريليون معاملة للذكاء الاصطناعي/تعلم الآلة عبر منصة Zscaler Zero Trust Exchange بين يناير وديسمبر من عام 2025، أن تصل المؤسسات إلى نقطة تحول حيث ينتقل الذكاء الاصطناعي من أداة إنتاجية إلى ناقل أساسي للصراع المستقل مع سرعة الآلة.
“لم يعد الذكاء الاصطناعي مجرد أداة إنتاجية، بل أصبح ناقلًا أساسيًا للهجمات المستقلة ذات السرعة الآلية التي تشنها كل من البرامج الإجرامية والدولة القومية[s]وقال نائب الرئيس التنفيذي لشركة Zscaler للأمن السيبراني ديبن ديساي في بيان.
وتابع: «في عصر الذكاء الاصطناعي العميل، يمكن أن ينتقل الاختراق من الاكتشاف إلى الحركة الجانبية إلى سرقة البيانات في دقائق، مما يجعل الدفاعات التقليدية عفا عليها الزمن».
اعتماد يفوق الرقابة
وحذر التقرير من أن تبني الذكاء الاصطناعي يتسارع بشكل أسرع من مراقبة المؤسسات، وكشف أنه على الرغم من نمو استخدام الذكاء الاصطناعي بنسبة 200% في القطاعات الرئيسية، إلا أن العديد من المؤسسات لا تزال تفتقر إلى مخزون أساسي من نماذج الذكاء الاصطناعي وميزات الذكاء الاصطناعي المضمنة.
تؤكد نتائج Zscaler بالضبط ما حذرنا منه في العام الماضي، كما أشار ستو برادلي، نائب الرئيس الأول لحلول المخاطر والاحتيال والامتثال في SAS، وهي شركة برمجيات للتحليلات والذكاء الاصطناعي في كاري، كارولاينا الشمالية. “تتبنى الشركات الذكاء الاصطناعي بشكل أسرع من بناء حواجز الحوكمة المناسبة، والآن بدأنا نرى العواقب،” كما قال لـ TechNewsWorld.
وتابع: “لا تزال معظم المؤسسات لا تملك مخزونًا كاملاً للمكان الذي يعمل فيه الذكاء الاصطناعي أو البيانات التي يمسها”. “نحن نتحدث عن ملايين من تفاعلات الذكاء الاصطناعي غير المُدارة وكميات لا حصر لها من البيانات الحساسة التي تتدفق إلى الأنظمة التي لا يراقبها أحد. ليس من الضروري أن تكون رئيس أمناء أمن المعلومات (CISO) لتدرك المخاطر الكامنة في ذلك.”
وأضاف رايان مكوردي، نائب رئيس التسويق في شركة Liquibase، وهي شركة تعمل على أتمتة تغيير قواعد البيانات في أوستن، تكساس: “ينتهي بك الأمر إلى وجود الذكاء الاصطناعي في كل مكان وعدم التحكم في أي مكان”.
وقال لـ TechNewsWorld: “يقوم الأشخاص بلصق بيانات العملاء ومقتطفات من التعليمات البرمجية وسياق الإنتاج في المساعدين لأنها أسرع طريقة لإنجاز العمل”. “وفي الوقت نفسه، يقوم البائعون بتحويل الذكاء الاصطناعي إلى أدوات تستخدمها بالفعل، وبالتالي ينتشر الاستخدام دون مراجعة أمنية رسمية.”
وأعلن أن “الخطر ليس نظريا”. “عندما لا تتمكن من جرد مكان تشغيل الذكاء الاصطناعي وما يلمسه، لا يمكنك فرض السياسة أو التحقيق في الحوادث بثقة.”
أوضح مايكل بيل، الرئيس التنفيذي لشركة Suzu Testing، وهي شركة تقدم خدمات الأمن السيبراني المدعومة بالذكاء الاصطناعي في لاس فيغاس، أن كل بائعي SaaS الرئيسيين يقومون بتضمين ميزات الذكاء الاصطناعي في منتجاتهم. وقال لـ TechNewsWorld: “غالبًا ما تكون هذه الميزات نشطة بشكل افتراضي، وترث الأذونات الحالية، وتتجنب اكتشافها بواسطة مرشحات الأمان القديمة”.
وقال: “موظفوك لا يختارون استخدام الذكاء الاصطناعي”. “يحدث الذكاء الاصطناعي في خلفية الأدوات التي يستخدمونها بالفعل. وهذا ملف تعريف مخاطر مختلف تمامًا عن الذكاء الاصطناعي الظل، لأنه لا يمكنك حله عن طريق حظر ChatGPT في جدار الحماية. الذكاء الاصطناعي موجود بالفعل داخل التطبيقات التي فرضتها”.
تم إطلاق الهجمات بسرعة الآلة
أفاد باحثو Zscaler أيضًا أن أنظمة الذكاء الاصطناعي للمؤسسات معرضة للخطر عند سرعة الآلة. ووجدوا أن معظم أنظمة الذكاء الاصطناعي للمؤسسات يمكن أن تتعرض للاختراق خلال 16 دقيقة فقط، مع اكتشاف عيوب خطيرة في 100% من الأنظمة التي قاموا بتحليلها.
في حين أن المناقشات المتعلقة بأمن الذكاء الاصطناعي غالبًا ما تركز على التهديدات المستقبلية الافتراضية، أشار التقرير إلى أن اختبار الفريق الأحمر لشركة Zscaler كشف عن حقيقة أكثر إلحاحًا: عندما يتم اختبار أنظمة الذكاء الاصطناعي للمؤسسات في ظل ظروف عدائية حقيقية، فإنها تتعطل على الفور تقريبًا.
وأوضح سونيل جوتوموكالا، الرئيس التنفيذي لشركة Averlon، وهي شركة أمنية سحابية تعمل بالذكاء الاصطناعي في ريدموند، واشنطن: “تتعرض أنظمة الذكاء الاصطناعي للاختراق بسرعة لأنها تعتمد على أذونات متعددة تعمل معًا، سواء تم منح هذه الأذونات عبر حسابات الخدمة أو موروثة من الوصول على مستوى المستخدم”.
وقال لـ TechNewsWorld: “قد يصل حساب هوية واحد إلى بيانات حساسة، وقد يؤدي حساب آخر إلى اتخاذ إجراءات آلية، وقد يكتب حساب ثالث إلى أنظمة الإنتاج”. “بشكل فردي، غالبًا ما تبدو هذه الأذونات مشروعة. وقد تؤدي مجتمعة إلى إنشاء سلاسل هجوم غير مقصودة على البيانات الحساسة أو الأنظمة المهمة.”
وأوضح تروي ليتش، كبير مسؤولي الإستراتيجية في Cloud Security Alliance، وهي منظمة غير ربحية مكرسة لأفضل الممارسات السحابية: “لا تزال بعض الشركات تعمل مع التركيز على معرفات الموظفين للتمييز بين التفويض المناسب، ولكن عدد الهويات غير البشرية إلى البشرية يبلغ حاليًا 82: 1، مع ممارسة قدر أقل من الرقابة على إمكانية الوصول والقدرات التي يتمتع بها نموذج الذكاء الاصطناعي”.
وقال لـ TechNewsWorld: “بالإضافة إلى ذلك، فإن العدد المتزايد من واجهات برمجة التطبيقات (APIs) واستقلالية وكلاء الذكاء الاصطناعي في الحصول على أو منح الوصول المميز للأداة يخلق طرقًا جديدة للتحايل على الضوابط الأمنية”. “تحتاج ممارسة تدوير الأذونات وإلغائها إلى التقدم نحو جهود أكثر ديناميكية لمواكبة الابتكار.”
وأضاف براد ميكليا، الرئيس التنفيذي والمؤسس المشارك لشركة Jozu، وهي شركة تطوير مقرها تورونتو لأدوات تعبئة نماذج الذكاء الاصطناعي ونشرها وإدارتها وإدارتها بشكل آمن، أن معظم الشركات تتعامل مع أمن الذكاء الاصطناعي باعتباره امتدادًا لأمن التطبيقات، ولكن سطح الهجوم مختلف تمامًا.
وقال لـ TechNewsWorld: “النماذج ليست رموزًا”. “إنها عبارة عن عناصر تحتوي على بيانات تدريب وأوزان وتبعيات مضمنة يمكن تسميمها في أي نقطة في سلسلة التوريد. لا تقوم أدوات AppSec التقليدية بفحص الأجزاء الداخلية للنموذج لأنها لم تكن مصممة لذلك.”
AI Gold Rush يولد كودًا رديئًا
أوضح إريك هولس، مدير الأبحاث في شركة كوماند زيرو، وهي شركة أتمتة تحقيقات إلكترونية في أوستن، تكساس، أن العديد من الشركات تسارع للدخول في حمى الذهب في مجال الذكاء الاصطناعي، لذلك تستخدم فرق التطوير عديمة الخبرة الذكاء الاصطناعي لإصدار تعليمات برمجية رديئة الجودة تؤدي إلى أخطاء ونقاط ضعف أمنية.
وقال لـ TechNewsWorld: “إن أقسام الشركة التي لا تحتوي على عمليات أمنية رسمية هي عبارة عن ميزات يتم شحنها بمساعدة الذكاء الاصطناعي ولكن دون التدقيق المناسب”. “من منظور تقني، يتم نشر هذه الأنظمة مع الوضع الأمني للنموذج الأولي، وليس نظام الإنتاج.”
وقال: “إننا نشهد نقاط نهاية نموذجية مكشوفة بدون مصادقة مناسبة، ونقاط ضعف للحقن السريع، وتكاملات واجهة برمجة التطبيقات غير الآمنة مع أذونات مفرطة”. “يتم شحن التكوينات الافتراضية مباشرة إلى الإنتاج. وفي نهاية المطاف، إنه مجال جديد وجديد، ويسارع الجميع للمطالبة بالمطالبة، وزيادة إيراداتهم، والوصول إلى السوق بشكل أسرع.”
وأضاف راندولف بار، رئيس قسم تكنولوجيا المعلومات في شركة Cequence Security، وهي شركة عالمية لأمن واجهات برمجة التطبيقات وإدارة الروبوتات: “في عجلة من أمرنا لجلب الذكاء الاصطناعي إلى السوق بسرعة، غالبًا ما تقوم فرق الهندسة والمنتجات بتقليص النفقات للوفاء بالجداول الزمنية الصارمة للإطلاق”.
وقال لـ TechNewsWorld: “عندما يحدث ذلك، يتم تخطي الضوابط الأمنية الأساسية، وتشق هذه الاختصارات طريقها إلى الإنتاج”. “لذا، في حين أن المؤسسات بدأت تفكر تمامًا في حماية النماذج، والحقن الفوري، وتسرب البيانات، واكتشاف الحالات الشاذة، فإن هذه الجهود لا تعني الكثير إذا لم تقم بتأمين الهوية والوصول والتكوين على المستوى التأسيسي.”
وأشار التقرير أيضًا إلى أنه في عام 2025، ارتفعت عمليات نقل بيانات المؤسسة إلى تطبيقات الذكاء الاصطناعي/التعلم الآلي إلى 18,033 تيرابايت – بزيادة قدرها 93% على أساس سنوي وما يعادل تقريبًا 3.6 مليار صورة رقمية.
وأضافت أنه تم قياس حجم هذا الخطر من خلال 410 مليون انتهاك لسياسة منع فقدان البيانات (DLP) المرتبطة بـ ChatGPT وحده، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي، وكود المصدر، والسجلات الطبية.
ويشير التقرير إلى أن هذه النتائج تشير إلى أن حوكمة الذكاء الاصطناعي قد انتقلت من مناقشة السياسات إلى ضرورة تشغيلية فورية. وحذرت من أنه مع نمو هذه المستودعات، فإنها أصبحت أهدافًا ذات أولوية عالية للتجسس الإلكتروني.
لا داعي للذعر
أكبر ما يمكن استنتاجه من التقرير هو أن الذكاء الاصطناعي هو بالفعل جزء من العمل اليومي، ويقوم الأشخاص بنقل بيانات الأعمال الحقيقية من خلاله – في كثير من الأحيان دون إدراك المخاطر، كما أشار ريان جاوس، المدير التنفيذي للتكنولوجيا في Forward Edge-AI، وهي شركة ذكاء اصطناعي تركز على السلامة العامة والأمن القومي وتقنيات مكافحة الاحتيال في سان أنطونيو، تكساس.
وقال لـ TechNewsWorld: “لا تحتاج الشركات إلى الذعر، لكنها بحاجة إلى اللحاق بالركب بسرعة”. “قرر ما هي الأدوات المسموح بها، وقم بوضع حواجز حماية حول البيانات الحساسة، وتأكد من أن الأمن يمكنه بالفعل رؤية ما يتم استخدامه.”
وأضافت روزاريو ماستروجياكومو، الرئيس التنفيذي للاستراتيجية في Sphere Technology Solutions، وهي شركة برمجيات وخدمات حوكمة البيانات في هوبوكين، نيوجيرسي: “ما يسلط التقرير الضوء عليه في النهاية ليس مشكلة الذكاء الاصطناعي، بل مشكلة حوكمة الهوية”.
وقال لـ TechNewsWorld: “إلى أن تعترف الشركات بأنظمة الذكاء الاصطناعي باعتبارها هويات تتطلب الاكتشاف والملكية والإشراف السلوكي وإدارة دورة الحياة، سنستمر في رؤية الابتكار المثير للإعجاب مقترنًا بالأمان الهش”. “المنظمات التي تقوم بهذا الأمر بشكل صحيح لن تبطئ اعتماد الذكاء الاصطناعي. بل ستجعله مستدامًا.”



