، مقالات،

الذكاء الاصطناعي في كل مكان ، دفعة واحدة



لقد مرت ستة أشهر محمومة منذ أن قدمت OpenAI نموذجها اللغوي الكبير ChatGPT إلى العالم في نهاية العام الماضي. كل يوم منذ ذلك الحين ، أجريت محادثة واحدة على الأقل حول عواقب تجربة الذكاء الاصطناعي العالمية التي نجد أنفسنا نجريها. نحن لسنا مستعدين لذلك ، وأعني بذلك الجميع – الأفراد والمؤسسات والحكومات وحتى الشركات التي تنشر التكنولوجيا اليوم.

ينعكس الشعور بأننا نتحرك بسرعة كبيرة من أجل مصلحتنا في رسالة مفتوحة تدعو إلى التوقف مؤقتًا في أبحاث الذكاء الاصطناعي ، والتي نشرها معهد Future of Life ووقعها العديد من الشخصيات البارزة في الذكاء الاصطناعي ، بما في ذلك بعض أعضاء IEEE البارزين. بصفتها مديرة الأخبار ، تقدم مارغو أندرسون التقارير عبر الإنترنت في المعهد، من بين الموقعين عضوًا أول و IEEE’s AI Ethics Maestro Eleanor “Nell” Watson وزميل IEEE وكبير علماء هندسة البرمجيات في IBM ، جرادي بوش. أخبر أندرسون ، “يتم إطلاق العنان لهذه النماذج في البرية من قبل الشركات التي لا تقدم أي شفافية فيما يتعلق بمجموعتها ، أو هندستها المعمارية ، أو حواجز الحماية الخاصة بها ، أو سياسات معالجة البيانات من المستخدمين. تجربتي وأخلاقياتي المهنية تخبرني أنه يجب علي اتخاذ موقف …. ”

استكشف برامج الحوكمة والأخلاقيات في IEEE AI

مؤتمر IEEE CAI 2023 حول الذكاء الاصطناعي ، 5-6 يونيو ، سانتا كلارا ، كاليفورنيا.

برنامج AI GET لأخلاقيات الذكاء الاصطناعي ومعايير الحوكمة

IEEE P2863 مجموعة عمل الحوكمة التنظيمية للذكاء الاصطناعي

وحدة IEEE Awareness on AI Ethics

شهادة IEEE

التطورات الحديثة في تقييم واعتماد أخلاقيات الذكاء الاصطناعي

لكن البحث والنشر لم يتوقفوا مؤقتًا ، وأصبح الذكاء الاصطناعي ضروريًا عبر مجموعة من المجالات. على سبيل المثال ، طبقت Google التعلم المعزز لتحسين وضع المنطق والذاكرة على الرقائق ، كما أفاد كبير المحرر صامويل ك. في أعماق ميزة يونيو ، يشرح مؤسسو شركة KoBold Metals كيفية استخدامهم لنماذج التعلم الآلي للبحث عن المعادن اللازمة لبطاريات السيارات الكهربائية في “هذا AI Hunts for Hidden Hoards of Battery Minerals”.

في مكان ما بين التوقف المؤقت المقترح والتبني المتهور للذكاء الاصطناعي ، تكمن التحديات الاجتماعية والاقتصادية والسياسية لوضع اللوائح التي طلب الرؤساء التنفيذيون للتكنولوجيا مثل Sam Altman من OpenAI و Sundar Pichai من Google من الحكومات إنشاؤها.

“يتم إطلاق العنان لهذه النماذج في البرية من قبل الشركات التي لا تقدم أي شفافية فيما يتعلق بمجموعتها أو بنيتها أو حواجزها أو سياسات التعامل مع البيانات من المستخدمين.”

للمساعدة في فهم لحظة الذكاء الاصطناعي الحالية ، تحدثت مع
IEEE Spectrum رئيسة التحرير إليزا ستريكلاند ، التي فازت مؤخرًا بجائزة جيسي إتش نيل لأفضل مجموعة من الأعمال التي كتبها مؤلفة عن تغطيتها للطب الحيوي والهندسة الجيولوجية والذكاء الاصطناعي. اتفقنا على أن الجدارة بالثقة هي على الأرجح الشاغل الأكثر إلحاحًا على المدى القريب. إن معالجة مصدر المعلومات وإمكانية تتبعها أمر أساسي. خلاف ذلك ، قد يغمر الناس الكثير من المعلومات السيئة لدرجة أن الإجماع الهش بين البشر حول ما هو حقيقي وما هو غير حقيقي ينهار تمامًا.

يتقدم الاتحاد الأوروبي على بقية العالم بقانون الذكاء الاصطناعي المقترح. وهي تحدد تطبيقات الذكاء الاصطناعي لثلاث فئات من المخاطر: تلك التي تخلق مخاطر غير مقبولة سيتم حظرها ، وسيتم تنظيم التطبيقات عالية الخطورة بإحكام ، والتطبيقات التي يُنظر إليها على أنها تشكل القليل من المخاطر ، إن وجدت ، ستُترك دون تنظيم.

تتطرق مسودة قانون الاتحاد الأوروبي للذكاء الاصطناعي إلى إمكانية التتبع والتزييف العميق ، لكنها لا تتناول على وجه التحديد نماذج التعلم العميق التي يمكن أن تنتج نصًا أو صورًا أو محتوى آخر عالي الجودة بناءً على بيانات التدريب الخاصة بها. ومع ذلك ، هناك مقال حديث في نيويوركر من قبل عالم الكمبيوتر جارون لانير يأخذ مباشرة المصدر والتتبع في أنظمة الذكاء الاصطناعي التوليدية.

ينظر لانير إلى الذكاء الاصطناعي التوليدي باعتباره تعاونًا اجتماعيًا يدمج العمل الذي يقوم به البشر. لقد ساعد في تطوير مفهوم يُدعى “كرامة البيانات” ، والذي يترجم بشكل فضفاض إلى تصنيف منتجات هذه الأنظمة على أنها تم إنشاؤها آليًا استنادًا إلى مصادر البيانات التي يمكن تتبعها إلى البشر ، والذين يجب أن يُنسب إليهم الفضل في مساهماتهم. يكتب لانير: “في بعض إصدارات الفكرة ، يمكن للناس أن يحصلوا على أموال مقابل ما يصنعونه ، حتى عندما يتم تصفيته وإعادة تجميعه من خلال النماذج الكبيرة ، وتكسب مراكز التكنولوجيا رسومًا مقابل تسهيل الأشياء التي يريد الناس القيام بها”.

هذه فكرة تستحق الاستكشاف الآن. لسوء الحظ ، لا يمكننا حث ChatGPT على إصدار نظام تنظيمي عالمي لتوجيه كيفية دمج الذكاء الاصطناعي في حياتنا. تنطبق اللوائح في النهاية على البشر المسؤولين حاليًا ، ولا يمكننا سوى ضمان مستقبل آمن ومزدهر للناس وآلاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى