أخبار

تهيمن الروبوتات الآن على الويب ، وهذه نسخة مشكلة


يتم إنشاء ما يقرب من نصف حركة المرور على الإنترنت بواسطة كيانات آلية تسمى BOTS ، ويشكل جزء كبير منها تهديدات للمستهلكين والشركات على الويب.

“[B]يمكن أن تساعد OTS في إنشاء عمليات الاحتيال في التصيد عن طريق الحصول على ثقة المستخدم واستغلالها للمخادعين. يمكن أن يكون لهذه عمليات الاحتيال آثار خطيرة على الضحية ، والتي تشمل بعضها الخسارة المالية وسرقة الهوية وانتشار البرامج الضارة “، كريستوف سيبرم ، مؤسس شركة AIPRM ، وهي شركة هندسة وإدارة سريعة منظمة العفو الدولية ، في ويلمنجتون ، ديل. وقال في بيان مقدم إلى Technewsworld.

“لسوء الحظ ، هذا ليس التهديد الأمني ​​الوحيد الذي تشكله روبوتات” ، تابع. “يمكنهم أيضًا إتلاف سمعة العلامات التجارية ، خاصة بالنسبة للعلامات التجارية والشركات ذات ملامح وسائل التواصل الاجتماعي الشهيرة ومعدلات المشاركة المرتفعة. من خلال ربط علامة تجارية بممارسات احتيالية وغير أخلاقية ، يمكن أن تشوه الروبوتات سمعة العلامة التجارية وتقليل ولاء المستهلك. “

وفقًا لتقرير Imperva 2024 Bad Bot ، ارتفعت مستويات حركة المرور السيئة للبوت للعام الخامس على التوالي ، مما يشير إلى وجود اتجاه ينذر بالخطر. ولاحظ أن الزيادة مدفوعة جزئيًا بزيادة شعبية الذكاء الاصطناعي (AI) ونماذج التعلم الكبيرة (LLMS).

في عام 2023 ، شكلت الروبوتات السيئة 32 ٪ من جميع حركة المرور على الإنترنت – بزيادة 1.8 ٪ عن 2022 ، أوضح التقرير. ارتفع جزء من حركة المرور الجيدة أيضًا ، وإن كان أقل بقليل ، من 17.3 ٪ من جميع حركة المرور على الإنترنت في 2022 إلى 17.6 ٪ في عام 2023. 50.4 ٪ من جميع حركة المرور.

وأوضح جيمس ماكويغان ، وهو داعية للتوعية الأمنية في Knowbe4 ، وهو مزود تدريب على الوعي الأمني ​​في كليرووتر ، فلوريدا ، “تساعد الروبوتات الجيدة في فهرسة الويب لمحركات البحث ، وأتمتة مراقبة الأمن السيبراني ، ومساعدة خدمة العملاء من خلال الدردشة”.

وقال لـ TechnewSworld: “إنهم يساعدون في اكتشاف نقاط الضعف ، وتحسين سير عمل تكنولوجيا المعلومات ، وتبسيط الإجراءات عبر الإنترنت”. “الحيلة هي معرفة الأتمتة القيمة وما هو النشاط الشرير.”

فرخ التذاكر على نطاق واسع

أوضح توماس ريتشاردز ، مدير ممارسة الفريق الأحمر في Black Duck Software ، وهي شركة أمان في Burlington ، Mass ، أتمتة ونجاح يقودون اتجاهات النمو لحركة المرور الروبوتات.

وقال لـ TechnewSworld “أن يكون قادرًا على التوسع يسمح للجهات الفاعلة الضارة بتحقيق أهدافهم”. “من الذكاء الاصطناعى تأثير من خلال السماح لهذه الجهات الفاعلة الضارة بالتصرف أكثر إنسانية وأتمتة الترميز والمهام الأخرى. كشفت Google ، على سبيل المثال ، أن Gemini قد استخدم لإنشاء أشياء ضارة. “

وتابع: “نرى هذا في تجارب يومية أخرى أيضًا” ، مثل الكفاح في السنوات الأخيرة للحصول على تذاكر الحفلات للأحداث الشعبية. يجد المبتدئون طرقًا لإنشاء المستخدمين أو استخدام حسابات معرضة للخطر لشراء التذاكر بشكل أسرع من الإنسان من أي وقت مضى. إنهم يكسبون المال عن طريق إعادة بيع التذاكر بسعر أعلى بكثير. “

وأضاف ستيفن كوسكي ، Field CTO في SlashNext ، وهي شركة أمان وشبكات في Pleasanton ، كاليفورنيا ، من السهل ومربح نشر الهجمات الآلية.

وقال لـ TechnewSworld: “يستخدم المجرمون أدوات متطورة لتجاوز التدابير الأمنية التقليدية”. “تجعل الأنظمة التي تعمل من الذكاء الاصطناعي برامج الروبوت أكثر إقناعًا وأصعب في اكتشافها ، مما يتيح لها محاكاة السلوك البشري بشكل أفضل والتكيف مع التدابير الدفاعية.”

وقال: “إن مزيج أدوات الذكاء الاصطناعى المتاحة بسهولة والقيمة المتزايدة للبيانات المسروقة يخلق ظروفًا مثالية لهجمات الروبوت الأكثر تقدماً في المستقبل”.

لماذا تشكل الروبوتات السيئة تهديدًا خطيرًا

يتوقع David Brauchler ، المدير الفني ورئيس AI و ML Security في مجموعة NCC ، وهي شركة استشارية عالمية للأمن السيبراني ، أن تستمر حركة المرور غير البشرية على الإنترنت.

وقال لـ Technewsworld: “مع زيادة عدد الأجهزة المتصلة بالإنترنت ، تضيف منصات SaaS وظائف مترابطة ، وتدخل الأجهزة الضعيفة الجديدة المشهد ، وقد أتيحت حركة المرور المتعلقة بالبراعة الفرصة لمواصلة زيادة نصيبها من عرض النطاق الترددي للشبكة”.

وأضاف Brauchler أن الروبوتات السيئة قادرة على التسبب في ضرر كبير. وقال: “لقد تم استخدام الروبوتات لإثارة انقطاع التيار الجماعي من خلال موارد الشبكة الساحقة لحرمان الوصول إلى الأنظمة والخدمات”.

“مع ظهور الذكاء الاصطناعي التوليدي ، يمكن أيضًا استخدام الروبوتات لانتحال شخصية مستخدم واقعي على المنصات عبر الإنترنت ، وزيادة مخاطر البريد العشوائي والاحتيال”. “يمكنهم أيضًا مسح الثغرات الأمنية واستغلالها في أنظمة الكمبيوتر.”

وادعى أن أكبر خطر من الذكاء الاصطناعي هو انتشار البريد العشوائي. “لا يوجد حل تقني قوي لتحديد هذا النوع من المحتوى عبر الإنترنت وحظره”. “لقد اتخذ المستخدمون استدعاء هذه الظاهرة من الذكاء الاصطناعى ، ويخاطر بإخطار إشارة التفاعلات المشروعة عبر الإنترنت في ضوضاء المحتوى الاصطناعي.”

وحذر من أن الصناعة يجب أن تكون حذرة للغاية عندما تنظر في أفضل حل لهذه المشكلة. وقال: “يمكن للعديد من العلاجات المحتملة أن تسبب المزيد من الضرر ، وخاصة تلك التي تخاطر بتهمة مهاجمة الخصوصية عبر الإنترنت”.

كيفية تحديد الروبوتات الضارة

اعترف Brauchler بأنه قد يكون من الصعب على البشر اكتشاف روبوت ضار. وقال “الغالبية العظمى من الروبوتات لا تعمل بأي طريقة يمكن للبشر اكتشافها”. “إنهم يتصلون بالأنظمة المعرضة للإنترنت مباشرة ، والاستعلام عن البيانات أو التفاعل مع الخدمات.”

“إن فئة الروبوتات التي يهتم بها معظم البشر هي وكلاء الذكاء الاصطناعى المستقلين الذين يمكن أن يتنكروا كبشر في محاولة للاحتيال على الناس عبر الإنترنت”. “تستخدم العديد من chatbots منظمة العفو الدولية أنماط الكلام التي يمكن التنبؤ بها يمكن للمستخدمين تعلمها من خلال التفاعل مع مولدات نص AI عبر الإنترنت.”

“وبالمثل ، فإن الصور التي تم إنشاؤها من الذكاء الاصطناعى لديها عدد من” يخبر “أنه يمكن للمستخدمين أن يتعلموا البحث عنه ، بما في ذلك الأنماط المكسورة ، مثل الأيدي والساعات التي يتم اختلالها ، وحواف الأشياء التي تذوب في أشياء أخرى ، وخلفيات مشوهة”.

وأضاف: “أصوات الذكاء الاصطناعي لديها أيضًا انضخات غير عادية وتعبيرات عن النغمة التي يمكن للمستخدمين تعلمها لالتقاطها”.

غالبًا ما يتم استخدام الروبوتات الضارة على منصات التواصل الاجتماعي للوصول الموثوق بالأفراد أو المجموعات. “راقب علامات telltale مثل الأنماط غير العادية في طلبات الصداقة ، وصور الملفات الشخصية أو المسروقة ، والحسابات التي تنشر بسرعات أو ترددات غير إنسانية” ، حذر كوسكي.

كما نصح أن يكون حذرًا من الملفات الشخصية ذات المعلومات الشخصية المحدودة ، أو أنماط المشاركة المشبوهة ، أو دفع جداول أعمال محددة من خلال الاستجابات الآلية.

في المؤسسة ، تابع ، أن التحليل السلوكي في الوقت الفعلي يمكن أن يكتشف الإجراءات الآلية التي لا تتطابق مع الأنماط البشرية الطبيعية ، مثل النقرات السريعة بشكل مستحيل أو تعبئة النماذج.

تهديد للشركات

وأشار كين دنهام ، مدير وحدة أبحاث التهديدات في شركة Qualys ، وهو مزود لحلول تكنولوجيا المعلومات والأمن والامتثال على أساس السحابة في فوستر سيتي ، كاليفورنيا ، أن الروبوتات الخبيثة يمكن أن تشكل تهديدًا كبيرًا للمؤسسات.

وقال لـ Technewsworld “بمجرد جمعها من قبل ممثل التهديد ، يمكن أن يتم سلاحهم”. “لدى الروبوتات موارد وقدرات لا تصدق لأداء هجمات مجهولة وموزعة وغير متزامنة ضد أهداف الاختيار ، مثل هجمات الاعتماد على القوة الغاشمة ، وهجمات رفض الخدمة الموزعة ، ومسح الضعف ، ومحاولة الاستغلال ، والمزيد.”

يمكن أن تستهدف الروبوتات الضارة أيضًا بوابات تسجيل الدخول ، ونقاط نهاية واجهة برمجة التطبيقات ، والأنظمة التي تواجه الجمهور ، والتي تخلق مخاطر للمؤسسات كما تحقق الجهات الفاعلة السيئة في نقاط الضعف لإيجاد طريقة للوصول إلى البنية التحتية الداخلية والبيانات ، كما أضاف McQuiggan.

وقال “بدون استراتيجيات تخفيف الروبوت ، يمكن أن تكون الشركات عرضة للتهديدات الآلية”.

للتخفيف من التهديدات من الروبوتات السيئة ، أوصى بنشر المصادقة متعددة العوامل ، وحلول اكتشاف الروبوت التكنولوجية ، ومراقبة حركة المرور للحالات الشاذة.

كما أوصى منع وكلاء المستخدمين القدامى ، واستخدام Captchas ، والحد من التفاعلات ، حيثما أمكن ، لخفض معدلات النجاح.

“من خلال تعليم الوعي الأمني ​​وإدارة المخاطر البشرية ، فإن معرفة الموظف بمحاولات التصيد والاحتيال التي يحركها الروبوت يمكن أن تضمن ثقافة أمنية صحية وتقليل خطر هجوم الروبوت الناجح” ، كما نصح.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى