حوكمة الذكاء الاصطناعي العسكري: من يضع القواعد؟

لقد تصاعد الآن الخلاف المحتدم بين وزارة الدفاع الأمريكية ومنظمة الأنثروبيك إلى مواجهة شاملة، الأمر الذي يثير سؤالا غير مريح ولكنه مهم: من الذي يحق له وضع حواجز الحماية للاستخدام العسكري للذكاء الاصطناعي – السلطة التنفيذية، أم الشركات الخاصة أم الكونجرس والعملية الديمقراطية الأوسع؟
بدأ الصراع عندما أعطى وزير الدفاع بيت هيجسيث، الرئيس التنفيذي لشركة Anthropic، داريو أمودي، مهلة نهائية للسماح لوزارة الدفاع بالاستخدام غير المقيد لأنظمة الذكاء الاصطناعي الخاصة بها. وعندما رفضت الشركة، تحركت الإدارة لتصنيف شركة أنثروبيك على أنها مصدر خطر لسلسلة التوريد وأمرت الوكالات الفيدرالية بالتخلص التدريجي من التكنولوجيا الخاصة بها، مما أدى إلى تصعيد المواجهة بشكل كبير.
لقد رفضت شركة أنثروبيك تجاوز خطين: السماح باستخدام نماذجها للمراقبة المحلية لمواطني الولايات المتحدة وتمكين الاستهداف العسكري المستقل بالكامل. وقد اعترض هيجسيث على ما وصفه بـ “القيود الأيديولوجية” المضمنة في أنظمة الذكاء الاصطناعي التجارية، بحجة أن تحديد الاستخدام العسكري القانوني يجب أن يكون مسؤولية الحكومة – وليس مسؤولية البائع. وعلى حد تعبيره في خطاب ألقاه في SpaceX التابع لإيلون موسك الشهر الماضي، “لن نستخدم نماذج الذكاء الاصطناعي التي لن تسمح لك بخوض الحروب”.
إن هذا النزاع، بعد تجريده من الخطابة، يشبه شيئًا واضحًا نسبيًا: الخلاف على المشتريات.
سياسات المشتريات
في اقتصاد السوق، يقرر الجيش الأمريكي المنتجات والخدمات التي يريد شراءها. تقرر الشركات ما هي على استعداد لبيعه وتحت أي ظروف. ولا يعتبر أي من الطرفين على صواب أو خطأ بطبيعته في اتخاذ موقف ما. إذا كان المنتج لا يلبي الاحتياجات التشغيلية، فيمكن للحكومة الشراء من بائع آخر. إذا اعتقدت الشركة أن استخدامات معينة لتقنيتها غير آمنة أو سابقة لأوانها أو غير متوافقة مع قيمها أو تحملها للمخاطر، فيمكنها رفض توفيرها. على سبيل المثال، وقع ائتلاف من الشركات على خطاب مفتوح يتعهد فيه بعدم استخدام الروبوتات ذات الأغراض العامة كأسلحة. وهذا التناظر الأساسي هو سمة من سمات السوق الحرة.
ويصبح الوضع أكثر تعقيدا – وأكثر إثارة للقلق – في قرار تصنيف الأنثروبولوجيا على أنها “خطر سلسلة التوريد”. وهذه الأداة موجودة لمعالجة نقاط الضعف الحقيقية في الأمن القومي، مثل الخصوم الأجانب. وليس المقصود إدراج شركة أمريكية في القائمة السوداء لرفضها الشروط التعاقدية المفضلة للحكومة.
إن استخدام هذه السلطة بهذه الطريقة يمثل تحولا كبيرا – من الخلاف على المشتريات إلى استخدام النفوذ القسري. وقد أعلن هيجسيث أنه “بأثر فوري، لا يجوز لأي مقاول أو مورد أو شريك يتعامل مع الجيش الأمريكي إجراء أي نشاط تجاري مع أنثروبك”. من المؤكد أن هذا الإجراء سيواجه تحديات قانونية، لكنه يزيد من المخاطر إلى ما هو أبعد من خسارة عقد واحد لوزارة الدفاع.
حوكمة الذكاء الاصطناعي
ومن المهم أيضًا التمييز بين القضيتين الجوهريتين اللتين أثارتهما الأنثروبيك.
الأول، معارضة المراقبة الداخلية للمواطنين الأمريكيين، ويمس مخاوف راسخة تتعلق بالحريات المدنية. تعمل حكومة الولايات المتحدة في ظل قيود دستورية وحدود قانونية عندما يتعلق الأمر بمراقبة الأمريكيين. إن إعلان الشركة بأنها لا تريد استخدام أدواتها لتسهيل المراقبة المحلية لا يخترع مبدأ جديدا؛ إنها تصطف مع حواجز الحماية الديمقراطية القديمة.
ولكي نكون واضحين، فإن وزارة الدفاع لا تؤكد بشكل قاطع أنها تنوي استخدام التكنولوجيا لمراقبة الأمريكيين بشكل غير قانوني. وموقفها هو أنها لا ترغب في شراء نماذج ذات قيود مدمجة تمنع الاستخدام الحكومي القانوني. وبعبارة أخرى، تجادل وزارة الدفاع بأن الالتزام بالقانون هو مسؤولية الحكومة – وليس شيئًا يجب تضمينه في قواعد البائع.
ومن جانبها، استثمرت شركة أنثروبيك بشكل كبير في تدريب أنظمتها على رفض فئات معينة من المهام الضارة أو عالية المخاطر، بما في ذلك المساعدة في المراقبة. وبالتالي فإن الخلاف لا يتعلق بالنوايا الحالية بقدر ما يتعلق بالسيطرة المؤسسية على القيود: ما إذا كان ينبغي للدولة فرضها من خلال القانون والرقابة، أو من قبل المطور من خلال التصميم الفني.
أما القضية الثانية، وهي معارضة الاستهداف العسكري المستقل بالكامل، فهي أكثر تعقيداً.
وتحتفظ وزارة الدفاع بالفعل بسياسات تتطلب الحكم البشري في استخدام القوة، وتستمر المناقشات حول الاستقلالية في أنظمة الأسلحة داخل كل من المنتديات العسكرية والدولية. قد تقرر شركة خاصة بشكل معقول أن تقنيتها الحالية ليست موثوقة بدرجة كافية أو لا يمكن التحكم فيها في بعض تطبيقات ساحة المعركة. وفي الوقت نفسه، قد يستنتج الجيش أن مثل هذه القدرات ضرورية للردع والفعالية العملياتية.
وقد يختلف الأشخاص العقلاء حول المكان الذي ينبغي رسم هذه الخطوط فيه.
لكن هذا الخلاف يسلط الضوء على نقطة أعمق: لا ينبغي تسوية حدود استخدام الذكاء الاصطناعي العسكري من خلال مفاوضات مخصصة بين سكرتير مجلس الوزراء والرئيس التنفيذي. ولا ينبغي أن يتم تحديدها من خلال الجانب الذي يمكنه ممارسة نفوذ تعاقدي أكبر.
إذا كانت حكومة الولايات المتحدة تعتقد أن بعض قدرات الذكاء الاصطناعي ضرورية للدفاع الوطني، فيجب التعبير عن هذا الموقف بشكل علني. ويجب أن تتم مناقشتها في الكونجرس، وأن تنعكس في العقيدة وآليات الرقابة والأطر القانونية. ويجب أن تكون القواعد واضحة – ليس فقط للشركات، بل للجمهور.
كثيراً ما تميز الولايات المتحدة نفسها عن الأنظمة الاستبدادية من خلال التأكيد على أن السلطة تعمل ضمن مؤسسات ديمقراطية شفافة وقيود قانونية. ويحمل هذا التمييز أهمية أقل إذا تم تحديد حوكمة الذكاء الاصطناعي في المقام الأول من خلال الإنذارات التنفيذية الصادرة خلف أبواب مغلقة.
وهناك أيضا بعد استراتيجي. إذا خلصت الشركات إلى أن المشاركة في الأسواق الفيدرالية تتطلب التنازل عن جميع شروط النشر، فقد يخرج البعض من تلك الأسواق. وقد يستجيب آخرون من خلال إضعاف أو إزالة الضمانات النموذجية ليظلوا مؤهلين للحصول على العقود الحكومية. ولا تعمل أي من النتيجتين على تعزيز الريادة التكنولوجية للولايات المتحدة.
إن وزارة الدفاع محقة في أنها لا تستطيع السماح “للقيود الأيديولوجية” المحتملة بتقويض العمليات العسكرية المشروعة. ولكن هناك فرق بين رفض القيود التعسفية ورفض أي دور لإدارة مخاطر الشركات في تشكيل شروط النشر. في المجالات عالية المخاطر – من الفضاء الجوي إلى الأمن السيبراني – يفرض المقاولون بشكل روتيني معايير السلامة ومتطلبات الاختبار والقيود التشغيلية كجزء من التسويق المسؤول. ولا ينبغي التعامل مع الذكاء الاصطناعي على أنه معفى بشكل فريد من هذه الممارسة.
علاوة على ذلك، لا ينبغي لنا أن ننظر إلى الضمانات المضمنة باعتبارها عقبات أمام الفعالية العسكرية. في العديد من القطاعات عالية المخاطر، تعد الرقابة الطبقية ممارسة قياسية: حيث تعمل الضوابط الداخلية، والضمانات الفنية، وآليات التدقيق، والمراجعة القانونية معًا. ويمكن أن تكون القيود الفنية بمثابة دعم إضافي، مما يقلل من مخاطر سوء الاستخدام أو الخطأ أو التصعيد غير المقصود.
الكونجرس بدون إذن
يجب أن تحتفظ وزارة الدفاع بالسلطة النهائية على الاستخدام القانوني. ولكنها لا تحتاج إلى رفض احتمال أن تكون بعض حواجز الحماية المدمجة على مستوى التصميم قادرة على استكمال هياكلها الرقابية بدلاً من تقويضها. وفي بعض السياقات، يؤدي التكرار في أنظمة السلامة إلى تعزيز التكامل التشغيلي، وليس إضعافه.
وفي الوقت نفسه، فإن الالتزامات الأخلاقية الأحادية الجانب للشركة لا تشكل بديلاً عن السياسة العامة. عندما تحمل التكنولوجيات آثاراً على الأمن القومي، فإن الحوكمة الخاصة لها حدود متأصلة. وفي نهاية المطاف، فإن القرارات المتعلقة بسلطات المراقبة والأسلحة المستقلة وقواعد الاشتباك تنتمي إلى المؤسسات الديمقراطية.
توضح هذه الحلقة لحظة محورية في حوكمة الذكاء الاصطناعي. أصبحت أنظمة الذكاء الاصطناعي في حدود التكنولوجيا الآن قوية بما يكفي للتأثير على تحليل الاستخبارات والخدمات اللوجستية والعمليات السيبرانية وربما اتخاذ القرارات في ساحة المعركة. وهذا يجعلها ذات أهمية أكبر من أن تحكمها سياسة الشركة فقط – وأكثر أهمية من أن تحكمها السلطة التقديرية التنفيذية فقط.
الحل ليس في تمكين طرف على حساب الآخر. وذلك لتعزيز المؤسسات التي تتوسط بينهما.
يجب على الكونجرس توضيح الحدود القانونية لاستخدام الذكاء الاصطناعي العسكري والتحقيق في ما إذا كانت هناك رقابة كافية. يجب على وزارة الدفاع أن تضع عقيدة مفصلة للتحكم البشري والتدقيق والمساءلة. ويجب أن يشارك المجتمع المدني والصناعة في عمليات التشاور المنظمة بدلاً من المواجهات العرضية، ويجب أن تعكس سياسة المشتريات تلك المعايير الموضوعة علناً.
إذا كان من الممكن إزالة حواجز حماية الذكاء الاصطناعي من خلال ضغط العقد، فسيتم التعامل معها على أنها قابلة للتفاوض. ومع ذلك، إذا كانت مستندة إلى القانون، فإنها يمكن أن تصبح توقعات مستقرة.
إن القيود الديمقراطية على الذكاء الاصطناعي العسكري تنتمي إلى القانون والعقيدة، وليس إلى مفاوضات العقود الخاصة.
تم تعديل هذه المقالة من قبل المؤلف بإذن من الصحافة سياسة التكنولوجيا. اقرأ المادة الأصلية.
من مقالات موقعك
مقالات ذات صلة حول الويب




