لا تنظم نماذج الذكاء الاصطناعي. تنظيم استخدام الذكاء الاصطناعي

الالتزام التنظيمي: يقتصر على المرافق المرخصة والمشغلين المعتمدين؛ حظر القدرات التي يكون غرضها الأساسي غير قانوني.
أغلق الحلقة عند نقاط الاختناق في العالم الحقيقي
تصبح الأنظمة التي تدعم الذكاء الاصطناعي حقيقية عندما تكون مرتبطة بالمستخدمين والأموال والبنية التحتية والمؤسسات، وهنا ينبغي للجهات التنظيمية أن تركز على التنفيذ: عند نقاط التوزيع (متاجر التطبيقات وأسواق المؤسسات)، والوصول إلى القدرات (المنصات السحابية والذكاء الاصطناعي)، وتحقيق الدخل (أنظمة الدفع وشبكات الإعلانات)، ونقل المخاطر (شركات التأمين والأطراف المقابلة للعقود).
بالنسبة للاستخدامات عالية المخاطر، نحتاج إلى طلب ربط الهوية للمشغلين، وبوابة القدرة المتوافقة مع مستوى المخاطر، والتسجيل الواضح للتلاعب لعمليات التدقيق ومراجعة ما بعد الحادث، مقترنة بحماية الخصوصية. نحن بحاجة إلى المطالبة بالأدلة على ادعاءات الناشر، يحافظ على خطط الاستجابة للحوادث، والإبلاغ عن الأخطاء المادية، وتوفير الدعم البشري. عندما يؤدي استخدام الذكاء الاصطناعي إلى الضرر، يجب على الشركات إظهار عملها ومواجهة المسؤولية عن الأضرار.
ويخلق هذا النهج ديناميكيات السوق التي تعمل على تسريع الامتثال. لو العمليات التجارية الحاسمة مثل المشتريات والوصول إلى السحابة خدمات، والتأمين يعتمد على إثبات ذلك أنت‘يكرر اتباع القواعدسيفعل مطورو نماذج الذكاء الاصطناعي ذلك بناء ل يمكن للمشترين التحقق من المواصفات. وهذا يرفع أرضية الأمان لـ أصناعة ليرة لبنانية اللاعبين, وشملت الشركات الناشئة، دون تسليم ميزة لعدد قليل من الشركات الكبيرة المرخصة.
نهج الاتحاد الأوروبي: كيف يتماشى هذا، وأين يختلف
يتوافق هذا الإطار مع قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي من ناحيتين مهمتين. فأولاً، يركز القانون على المخاطر عند نقطة التأثير: وتشمل فئات “الخطورة العالية” في القانون التوظيف، والتعليم، والقدرة على الوصول إلى الخدمات الأساسية، والبنية الأساسية الحيوية، مع التزامات دورة الحياة وحقوق تقديم الشكاوى. كما أنها تعترف بالمعاملة الخاصة للأنظمة واسعة النطاق (GPAI) دون التظاهر بأن التحكم في النشر هو استراتيجية للسلامة. ويختلف اقتراحي بالنسبة للولايات المتحدة في ثلاث نقاط الطرق الرئيسية:
فأولا، يتعين على الولايات المتحدة أن تعمل على تصميم ضمانات للاستدامة الدستورية. تعاملت المحاكم مع كود المصدر باعتباره خطابًا محميًا، والنظام الذي يتطلب الحصول على إذن لنشر الأوزان أو تدريب فئة من العارضات يبدأ في التشابه مع القيود المسبقة. إن نظام القواعد القائم على الاستخدام الذي يحكم ما يمكن لمشغلي الذكاء الاصطناعي القيام به في البيئات الحساسة، وتحت أي ظروف، يتناسب بشكل طبيعي مع مبدأ التعديل الأول في الولايات المتحدة مقارنة بخطط الترخيص القائمة على المتحدثين.
ثانية، ال يمكن للاتحاد الأوروبي أن يعتمد على منصات تتكيف مع القواعد الاحترازية التي يكتبها لسوقه الموحدة. ويتعين على الولايات المتحدة أن تتقبل وجود النماذج على مستوى العالم، سواء المفتوحة أو المغلقة، والتركيز على المجالات التي يصبح فيها الذكاء الاصطناعي قابلاً للتنفيذ: متاجر التطبيقات، ومنصات المؤسسات، ومقدمي الخدمات السحابية، وطبقات هوية المؤسسة، وقضبان الدفع، وشركات التأمين، وحراس بوابات القطاع المنظم (المستشفيات والمرافق العامة والبنوك). هذه هي النقاط القابلة للتنفيذ حيث يمكن أن تكون الهوية، والتسجيل، وبوابة القدرة، والمساءلة بعد الحادث مطلوب دون التظاهر بأننا قادرون على “احتواء” البرمجيات. كما أنها تمتد أيضًا إلى العديد من الوكالات الأمريكية المتخصصة التي قد لا تكون قادرة على كتابة قواعد عالية المستوى واسعة بما يكفي للتأثير على النظام البيئي للذكاء الاصطناعي بأكمله. وبدلا من ذلك، ينبغي للولايات المتحدة أن تنظم نقاط الاختناق في خدمات الذكاء الاصطناعي بشكل أكثر وضوحا مما تفعله أوروبا، لاستيعاب الأشكال المختلفة لحكومتها وإدارتها العامة.
ثالثا، يتعين على الولايات المتحدة أن تضيف فئة واضحة من “خطر الاستخدام المزدوج”. إن قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي هو في المقام الأول نظام للحقوق الأساسية وسلامة المنتجات. والولايات المتحدة لديها أيضاً واقع يتعلق بالأمن القومي: حيث تشكل بعض القدرات خطراً لأنها تعمل على توسيع نطاق الضرر (الأمن البيولوجي، والجرائم السيبرانية، والاحتيال الجماعي). وينبغي لأي إطار عمل متماسك في الولايات المتحدة أن يسمي هذه الفئة وينظمها بشكل مباشر، بدلاً من محاولة دمجها في ترخيص “النموذج الحدودي” العام.
النهج الذي تتبعه الصين: ما الذي يجب إعادة استخدامه، وما الذي يجب تجنبه
لقد قامت الصين ببناء نظام متعدد الطبقات للذكاء الاصطناعي الذي يواجه الجمهور. تتطلب قواعد “التوليف العميق” (التي تسري اعتبارًا من 10 يناير 2023) وضع علامات واضحة على الوسائط الاصطناعية وفرض رسوم على مقدمي الخدمة والمنصات. ال أناتضيف التدابير المؤقتة للذكاء الاصطناعي التوليدي (اعتبارًا من 15 أغسطس 2023) التزامات التسجيل والحوكمة للخدمات المقدمة للجمهور. يعزز التنفيذ التحكم في النظام الأساسي وأنظمة حفظ الملفات الخوارزمية.
ولا ينبغي للولايات المتحدة أن تنسخ سيطرة الدولة الصينية على وجهات نظر الذكاء الاصطناعي أو إدارة المعلومات؛ فهو لا يتوافق مع القيم الأميركية ولن ينجو من التدقيق الدستوري الأميركي. إن ترخيص النشر النموذجي هش من الناحية العملية، وفي الولايات المتحدة، من المحتمل أن غير دستوري شكل من أشكال الرقابة.
ولكن بوسعنا أن نستعير فكرتين عمليتين من الصين. أولاً، يجب أن نضمن مصدرًا جديرًا بالثقة وإمكانية تتبع الوسائط الاصطناعية. وهذا ينطوي على وضع العلامات الإلزامية و المصدر الطب الشرعي أدوات. إنها تمنح المبدعين والمنصات الشرعية طريقة موثوقة لإثبات الأصل والنزاهة. عندما يتم التحقق بسرعة من الأصالة على نطاق واسع، يفقد المهاجمون ميزة النسخ الرخيصة أو التزييف العميق ويستعيد المدافعون الوقت الكافي للكشف والفرز والرد. ثانيا، ينبغي لنا أن نطلب المشغلين ل ملف أساليبهم وضوابط المخاطر مع المنظمين للخدمات العامة عالية المخاطر، كما نفعل مع الخدمات الأخرى السلامة الحرجة المشاريع. وينبغي أن يشمل ذلك ضمانات الإجراءات القانونية الواجبة والشفافية مناسب ل الديمقراطيات الليبرالية إلى جانب المسؤولية الواضحة عن تدابير السلامة، وحماية البيانات، والتعامل مع الحوادث، وخاصة بالنسبة للأنظمة المصممة للتلاعب بالعواطف أو بناء التبعية، والتي تشمل بالفعل الألعاب ولعب الأدوار والألعاب. التطبيقات المرتبطة.
نهج عملي
لا يمكننا تنظيم تطور الذكاء الاصطناعي بشكل هادف في عالم حيث يتم نسخ المصنوعات اليدوية في الوقت الفعلي تقريبًا وتتدفق الأبحاث بسلاسة عبر الحدود. ولكن بوسعنا أن نبقي الأنظمة التي لم يتم فحصها خارج المستشفيات، وأنظمة الدفع، والبنية الأساسية الحيوية من خلال تنظيم الاستخدامات، وليس النماذج؛ إنفاذ في نقاط الاختناق وتطبيق الالتزامات التي تتناسب مع المخاطر.
وإذا تم تنفيذ هذا النهج على النحو الصحيح فإنه ينسجم مع إطار الاتحاد الأوروبي الموجه نحو النتائج، ويوجه الإبداع على المستوى الفيدرالي وعلى مستوى الولايات في الولايات المتحدة إلى خط أساس متماسك، ويعيد استخدام الضوابط المفيدة على مستوى التوزيع في الصين في حين يرفض الترخيص المقيد للتعبير. يمكننا كتابة القواعد التي تحمي الناس والتي لا تزال تعزز الابتكار القوي في مجال الذكاء الاصطناعي.




