أخبار

توقعات الأمن السيبراني لعام 2025 يهيمن عليها الذكاء الاصطناعي


عندما يتعلق الأمر بالأمن السيبراني في عام 2025، فإن الذكاء الاصطناعي هو على رأس أولويات العديد من المحللين والمهنيين.

سيتم نشر الذكاء الاصطناعي من قبل كل من الخصوم والمدافعين، لكن المهاجمين سيستفيدون منه أكثر، كما أكد ويلي ليشتر، مدير التسويق في AppSOC، وهي شركة توفر أمن التطبيقات وإدارة الثغرات الأمنية في سان خوسيه، كاليفورنيا.

وقال لـ TechNewsWorld: “نحن نعلم أنه سيتم استخدام الذكاء الاصطناعي بشكل متزايد على جانبي الحرب السيبرانية”. “ومع ذلك، سيظل المهاجمون أقل تقييدًا لأنهم أقل قلقًا بشأن دقة الذكاء الاصطناعي أو أخلاقياته أو العواقب غير المقصودة. ستستفيد تقنيات مثل التصيد الاحتيالي المخصص للغاية وشبكات البحث عن نقاط الضعف القديمة من الذكاء الاصطناعي.

وقال: “على الرغم من أن الذكاء الاصطناعي يتمتع بإمكانات دفاعية هائلة، إلا أن هناك المزيد من القيود – القانونية والعملية – التي من شأنها إبطاء اعتماده”.

توقع كريس هوك، بطل خصوصية المستهلك في Pixel Privacy، وهو ناشر لأدلة أمن المستهلك والخصوصية عبر الإنترنت، أن يكون عام 2025 هو عام الذكاء الاصطناعي مقابل الذكاء الاصطناعي، حيث يستخدم الأخيار الذكاء الاصطناعي للدفاع ضد الهجمات الإلكترونية التي تدعمها الذكاء الاصطناعي.

وقال لـ TechNewsWorld: “من المحتمل أن يكون عامًا من المعارك ذهابًا وإيابًا حيث يستخدم الجانبان المعلومات التي جمعاها من الهجمات السابقة لإعداد هجمات جديدة ودفاعات جديدة”.

التخفيف من المخاطر الأمنية للذكاء الاصطناعي

وتوقع ليشتر أيضًا أن يبدأ الخصوم السيبرانيون في استهداف أنظمة الذكاء الاصطناعي في كثير من الأحيان. وأوضح أن “تكنولوجيا الذكاء الاصطناعي توسع بشكل كبير مساحة سطح الهجوم مع التهديدات الناشئة بسرعة للنماذج ومجموعات البيانات وأنظمة عمليات لغة الآلة”. “أيضًا، عندما يتم نقل تطبيقات الذكاء الاصطناعي من المختبر إلى الإنتاج، لن يتم فهم التأثير الأمني ​​الكامل حتى تحدث الانتهاكات الحتمية.”

ويتفق مع هذا الرأي كارل هولمكفيست، المؤسس والرئيس التنفيذي لشركة Lastwall، وهي شركة لأمن الهوية مقرها في هونولولو. وقال لـ TechNewsWorld: “إن النشر الجماعي غير الخاضع للرقابة لأدوات الذكاء الاصطناعي – والتي غالبًا ما يتم نشرها دون أسس أمنية قوية – سيؤدي إلى عواقب وخيمة في عام 2025”.

وقال: “في ظل الافتقار إلى تدابير الخصوصية والأطر الأمنية الكافية، ستصبح هذه الأنظمة أهدافًا رئيسية للانتهاكات والتلاعب”. “إن نهج الغرب المتوحش هذا في نشر الذكاء الاصطناعي سيترك البيانات وأنظمة اتخاذ القرار مكشوفة بشكل خطير، مما يدفع المؤسسات إلى إعطاء الأولوية بشكل عاجل لضوابط الأمان الأساسية، وأطر الذكاء الاصطناعي الشفافة، والمراقبة المستمرة للتخفيف من هذه المخاطر المتصاعدة.”

وأكد ليشتر أيضًا أنه سيتعين على الفرق الأمنية تحمل المزيد من المسؤولية لتأمين أنظمة الذكاء الاصطناعي في عام 2025.

وقال: “يبدو هذا واضحًا، ولكن في العديد من المؤسسات، كانت مشاريع الذكاء الاصطناعي الأولية يقودها علماء البيانات والمتخصصون في الأعمال، الذين غالبًا ما يتجاوزون عمليات أمان التطبيقات التقليدية”. “ستخوض الفرق الأمنية معركة خاسرة إذا حاولت منع أو إبطاء مبادرات الذكاء الاصطناعي، لكن سيتعين عليها وضع مشاريع الذكاء الاصطناعي المارقة تحت مظلة الأمن والامتثال.”

وأشار ليختر أيضًا إلى أن الذكاء الاصطناعي سيوسع سطح الهجوم للأعداء الذين يستهدفون سلاسل توريد البرمجيات في عام 2025. “لقد رأينا بالفعل سلاسل التوريد تصبح ناقلًا رئيسيًا للهجوم، حيث تعتمد مجموعات البرامج المعقدة بشكل كبير على أكواد الطرف الثالث والمفتوحة المصدر. قال. “إن الانفجار الكبير في اعتماد الذكاء الاصطناعي يجعل هذا الهدف أكبر مع ناقلات معقدة جديدة للهجوم على مجموعات البيانات والنماذج.”

وأضاف: “يعد فهم سلسلة النماذج والحفاظ على سلامة مجموعات البيانات المتغيرة مشكلة معقدة، وفي الوقت الحالي، لا توجد طريقة قابلة للتطبيق لنموذج الذكاء الاصطناعي للتخلص من البيانات السامة”.

تهديدات تسمم البيانات لنماذج الذكاء الاصطناعي

ويرى مايكل ليبرمان، المدير التنفيذي للتكنولوجيا والمؤسس المشارك لشركة Kusari، وهي شركة لأمن سلسلة توريد البرمجيات في ريدجفيلد بولاية كونيتيكت، أيضًا أن تسميم نماذج اللغات الكبيرة يمثل تطورًا مهمًا في عام 2025. من المحتمل أن تكون هذه الطريقة أكثر استهلاكًا للموارد مقارنةً بالتكتيكات الأبسط، مثل توزيع شهادات LLM مفتوحة وخبيثة.

وأوضح أن “معظم المنظمات لا تقوم بتدريب نماذجها الخاصة”. “بدلاً من ذلك، يعتمدون على نماذج مدربة مسبقًا، وغالبًا ما تكون متاحة مجانًا. إن الافتقار إلى الشفافية فيما يتعلق بأصول هذه النماذج يجعل من السهل على الجهات الخبيثة تقديم نماذج ضارة، كما يتضح من حادثة Hugging Face الخبيثة. وقع هذا الحادث في أوائل عام 2024 عندما تم اكتشاف أن حوالي 100 رسالة ماجستير تحتوي على أبواب خلفية مخفية يمكنها تنفيذ تعليمات برمجية عشوائية على أجهزة المستخدمين قد تم تحميلها على منصة Hugging Face.

وتوقع ليبرمان أن “جهود تسميم البيانات المستقبلية من المرجح أن تستهدف اللاعبين الرئيسيين مثل OpenAI وMeta وGoogle، التي تدرب نماذجها على مجموعات بيانات ضخمة، مما يجعل اكتشاف مثل هذه الهجمات أكثر صعوبة”.

وأضاف: “في عام 2025، من المرجح أن يتفوق المهاجمون على المدافعين”. “إن المهاجمين لديهم دوافع مالية، بينما يكافح المدافعون في كثير من الأحيان لتأمين ميزانيات كافية حيث لا يُنظر إلى الأمن عادةً على أنه محرك للإيرادات. وقد يتطلب الأمر حدوث اختراق كبير في سلسلة التوريد الخاصة بالذكاء الاصطناعي – على غرار حادثة SolarWinds Sunburst – لحث الصناعة على أخذ التهديد على محمل الجد.

وبفضل الذكاء الاصطناعي، سيكون هناك أيضًا المزيد من الجهات الفاعلة التي ستشن هجمات أكثر تعقيدًا في عام 2025. ومع زيادة قدرة الذكاء الاصطناعي وسهولة الوصول إليه، سيصبح حاجز الدخول أمام المهاجمين الأقل مهارة أقل مع تسريع سرعة تنفيذ الهجمات أيضًا. “، أوضح جاستن بلاكبيرن، أحد كبار مهندسي الكشف عن التهديدات السحابية في AppOmni، وهي شركة برمجيات لإدارة الأمن SaaS، في سان ماتيو، كاليفورنيا.

وقال لـ TechNewsWorld: “بالإضافة إلى ذلك، فإن ظهور الروبوتات التي تعمل بالذكاء الاصطناعي سيمكن الجهات التهديدية من تنفيذ هجمات واسعة النطاق بأقل جهد ممكن”. “من خلال تسليح هذه الأدوات التي تعمل بالذكاء الاصطناعي، قد يتمكن الأعداء الأقل قدرة من الوصول غير المصرح به إلى البيانات الحساسة وتعطيل الخدمات على نطاق لم يسبق له مثيل إلا من قبل مهاجمين أكثر تطوراً وذوي تمويل جيد.”

الأطفال النصي يكبرون

في عام 2025، سيؤدي ظهور الذكاء الاصطناعي الوكيل – الذكاء الاصطناعي القادر على اتخاذ قرارات مستقلة، والتكيف مع بيئته، واتخاذ الإجراءات دون تدخل بشري مباشر – إلى تفاقم المشاكل للمدافعين أيضًا. وقال جيسون بيتمان، الأستاذ المشارك في كلية الأمن السيبراني وتكنولوجيا المعلومات في الحرم الجامعي العالمي لجامعة ميريلاند في أدلفي بولاية ميريلاند: “من المتوقع أن يؤدي التقدم في الذكاء الاصطناعي إلى تمكين الجهات الفاعلة غير الحكومية من تطوير أسلحة سيبرانية مستقلة”.

وقال لـ TechNewsWorld: “يعمل الذكاء الاصطناعي الوكيل بشكل مستقل بسلوكيات موجهة نحو الهدف”. “يمكن لمثل هذه الأنظمة استخدام الخوارزميات الرائدة لتحديد نقاط الضعف واختراق الأنظمة وتطوير تكتيكاتها في الوقت الفعلي دون توجيه بشري. “

وأوضح أن “هذه الميزات تميزه عن أنظمة الذكاء الاصطناعي الأخرى التي تعتمد على تعليمات محددة مسبقًا وتتطلب مدخلات بشرية”.

“مثل دودة موريس في العقود الماضية، قد يبدأ إطلاق الأسلحة الإلكترونية العميلة كحادث، وهو أمر أكثر إزعاجًا. وذلك لأن إمكانية الوصول إلى أدوات الذكاء الاصطناعي المتقدمة وانتشار أطر التعلم الآلي مفتوحة المصدر تقلل من حاجز تطوير أسلحة سيبرانية متطورة. بمجرد إنشائها، يمكن أن تؤدي ميزة الاستقلالية القوية بسهولة إلى هروب الذكاء الاصطناعي الوكيل من إجراءات السلامة الخاصة به.

على الرغم من أن الذكاء الاصطناعي يمكن أن يكون ضارًا في أيدي الجهات التهديدية، إلا أنه يمكن أن يساعد أيضًا في تأمين البيانات بشكل أفضل، مثل معلومات التعريف الشخصية (PII). وقال ريتش فيبرت، المؤسس المشارك والرئيس التنفيذي لشركة Metomic، وهي منصة خصوصية البيانات في لندن: “بعد تحليل أكثر من ستة ملايين ملف على Google Drive، اكتشفنا أن 40% من الملفات تحتوي على معلومات تعريف شخصية تعرض الشركات لخطر اختراق البيانات”.

وتابع: “مع دخولنا عام 2025، سنرى المزيد من الشركات تعطي الأولوية لأساليب تصنيف البيانات الآلية لتقليل كمية المعلومات الضعيفة المحفوظة عن غير قصد في الملفات التي يمكن الوصول إليها بشكل عام ومساحات العمل التعاونية عبر SaaS والبيئات السحابية”.

وقال: “ستعمل الشركات بشكل متزايد على نشر الأدوات التي تعتمد على الذكاء الاصطناعي والتي يمكنها تحديد المعلومات الحساسة ووضع علامات عليها وتأمينها تلقائيًا”. “سيمكن هذا التحول الشركات من مواكبة الكميات الهائلة من البيانات التي يتم إنشاؤها يوميًا، مما يضمن حماية البيانات الحساسة باستمرار وتقليل التعرض للبيانات غير الضرورية إلى الحد الأدنى.”

ومع ذلك، يمكن أن يشهد عام 2025 أيضًا موجة من خيبة الأمل بين محترفي الأمن عندما تصطدم الضجة حول الذكاء الاصطناعي بالمعجبين. كتب كودي سكوت، أحد كبار المحللين في شركة Forrester Research، وهي شركة لأبحاث السوق مقرها في كامبريدج بولاية ماساتشوستس، في مدونة للشركة: “سوف يقلل مدراء تكنولوجيا المعلومات من أولوية استخدام الذكاء الاصطناعي العام بنسبة 10% بسبب الافتقار إلى القيمة القابلة للقياس الكمي”.

وأشار إلى أنه “وفقًا لبيانات شركة Forrester لعام 2024، فإن 35% من مديري تكنولوجيا المعلومات ومديري تكنولوجيا المعلومات على مستوى العالم يفكرون في استكشاف ونشر حالات الاستخدام لجيل الذكاء الاصطناعي لتحسين إنتاجية الموظفين كأولوية قصوى”. “لقد سارع سوق المنتجات الأمنية إلى الترويج لفوائد الإنتاجية المتوقعة لجيل الذكاء الاصطناعي، ولكن الافتقار إلى النتائج العملية يعزز خيبة الأمل.”

وتابع: “إن فكرة إنشاء مركز عمليات أمنية مستقل باستخدام الجيل الجديد من الذكاء الاصطناعي قد أثارت الكثير من الضجيج، لكنها لا يمكن أن تكون أبعد عن الواقع”. “في عام 2025، سيستمر هذا الاتجاه، وسيغرق الممارسون في مجال الأمن بشكل أعمق في خيبة الأمل لأن التحديات مثل الميزانيات غير الكافية وفوائد الذكاء الاصطناعي غير المحققة تقلل من عدد عمليات نشر الذكاء الاصطناعي العام التي تركز على الأمن.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى