الذكاء الاصطناعي الواعي: المخاطر والآثار الأخلاقية

عندما يتحدث باحثو الذكاء الاصطناعي عن مخاطر الذكاء الاصطناعي المتقدم، فإنهم عادة ما يتحدثون إما عن المخاطر المباشرة، مثل التحيز الخوارزمي والمعلومات الخاطئة، أو المخاطر الوجودية، كما هو الحال في خطر ظهور الذكاء الاصطناعي الفائق والقضاء على الجنس البشري.
فيلسوف جوناثان بيرش، أستاذ في كلية لندن للاقتصاد، يرى مخاطر مختلفة. إنه قلق من أننا سنفعل ذلك “مواصلة اعتبار هذه الأنظمة بمثابة أدواتنا والألعاب بعد فترة طويلة من أن تصبح واعية، مما يؤدي عن غير قصد إلى إلحاق الضرر بالذكاء الاصطناعي الواعي. كما أنه يشعر بالقلق من أن الناس سينسبون مشاعرهم قريبًا إلى برامج الدردشة مثل ChatGPT التي لا تعدو أن تكون جيدة في محاكاة الحالة. ويشير إلى أننا نفتقر إلى اختبارات لتقييم الشعور بشكل موثوق في الذكاء الاصطناعي، لذلك سنواجه صعوبة بالغة في معرفة أي من هذين الأمرين يحدث.
يعرض بيرش هذه المخاوف في كتابه حافة الوعي: المخاطر والاحتياط في البشر والحيوانات الأخرى والذكاء الاصطناعي، نشرته مطبعة جامعة أكسفورد العام الماضي. يبحث الكتاب في مجموعة من حالات الحافة، بما في ذلك الحشرات والأجنة والأشخاص في حالة إنباتية، ولكن IEEE الطيف وتحدثت معه عن القسم الأخير الذي يتناول احتمالات “الوعي الاصطناعي”.
جوناثان بيرش…
عندما يتحدث الناس عن الذكاء الاصطناعي المستقبلي، فإنهم غالبًا ما يستخدمون كلمات مثل الوعي والوعي والذكاء الفائق بشكل متبادل. هل يمكن أن توضح ماذا تقصد بالشعور؟
جوناثان بيرش: أعتقد أنه من الأفضل أن يكونوا كذلك لا تستخدم بالتبادل. بالتأكيد، علينا أن نكون حذرين للغاية في التمييز بين الوعي، الذي يدور حول الشعور، والذكاء. أجد أيضًا أنه من المفيد التمييز بين الوعي والوعي لأنني أعتقد أن الوعي شيء متعدد الطبقات. تحدث هربرت فيجل، وهو فيلسوف كتب في الخمسينيات من القرن العشرين، عن وجود ثلاث طبقات – الشعور، والعقلانية، والأنا – حيث يدور الوعي حول الأحاسيس الأولية المباشرة، والحكمة هي قدرتنا على التفكير في تلك الأحاسيس، والذاتية تدور حول قدرتنا على مجردة شعور بأنفسنا كما هو موجود في الوقت المناسب. في الكثير من الحيوانات، قد تحصل على الطبقة الأساسية من الوعي دون العقل أو الذات. ومن المثير للاهتمام، أنه مع الذكاء الاصطناعي قد نحصل على الكثير من هذا العقل، وتلك القدرة العاكسة، وربما نحصل على أشكال من الذات دون أي شعور على الإطلاق.
العودة إلى الأعلى
البتولا: لن أقول إنه مستوى منخفض بمعنى أنه غير مثير للاهتمام. على العكس من ذلك، إذا تمكن الذكاء الاصطناعي من الوصول إلى الوعي، فسيكون هذا الحدث الأكثر استثنائية في تاريخ البشرية. سنكون قد خلقنا نوعًا جديدًا من الكائنات الواعية. لكن فيما يتعلق بمدى صعوبة تحقيق ذلك، فنحن لا نعرف حقًا. وأنا قلق بشأن احتمال أننا قد نحقق عن طريق الخطأ الذكاء الاصطناعي الواعي قبل وقت طويل من إدراكنا أننا فعلنا ذلك.
للحديث عن الفرق بين الواعي والذكاء: في الكتاب، تقترح أن الخلايا العصبية التي يتم بناؤها في دماغ الدودة الاصطناعية بواسطة الخلايا العصبية قد تكون أقرب إلى الشعور من نموذج لغة كبير مثل ChatGPT. هل يمكنك شرح هذا المنظور؟
البتولا: حسنًا، عند التفكير في الطرق المحتملة للذكاء الاصطناعي الواعي، فإن الطريقة الأكثر وضوحًا هي من خلال محاكاة الجهاز العصبي الحيواني. وهناك مشروع يسمى OpenWorm يهدف إلى محاكاة الجهاز العصبي بأكمله للدودة الخيطية في برامج الكمبيوتر. ويمكنك أن تتخيل أنه إذا نجح هذا المشروع، فسوف ينتقلون إلى Open Fly، Open Mouse. ومن خلال Open Mouse، لديك محاكاة للدماغ الذي يحقق الشعور في الحالة البيولوجية. لذا أعتقد أنه يجب على المرء أن يأخذ على محمل الجد احتمال أن تحقق المحاكاة، من خلال إعادة إنشاء جميع الحسابات نفسها، شكلاً من أشكال الشعور.
العودة إلى الأعلى
أنت تقترح هنا أن الأدمغة التي تمت محاكاتها يمكن أن تكون واعية إذا أنتجت نفس السلوكيات التي تنتجها نظيراتها البيولوجية. هل يتعارض ذلك مع وجهات نظرك حول نماذج اللغات الكبيرة، والتي تقول إنها على الأرجح تحاكي الوعي في سلوكياتها؟
البتولا: لا أعتقد أنهم مرشحون للوعي لأن الأدلة غير موجودة حاليًا. نحن نواجه هذه المشكلة الضخمة مع نماذج اللغات الكبيرة، وهي أنها تتلاعب بمعاييرنا. عندما تدرس حيوانًا، إذا رأيت سلوكًا يوحي بالوعي، فإن أفضل تفسير لهذا السلوك هو أن هناك بالفعل وعيًا. لا داعي للقلق بشأن ما إذا كان الفأر يعرف كل ما يمكن معرفته عما يجده البشر مقنعًا وقرر أن إقناعك يخدم مصلحته. بينما مع نموذج اللغة الكبير، هذا هو بالضبط ما يجب أن تقلق بشأنه، حيث أن هناك فرصة كبيرة لأن يحتوي في بيانات التدريب الخاصة به على كل ما يحتاجه ليكون مقنعًا.
لذا، لدينا مشكلة الألعاب هذه، والتي تجعل من المستحيل تقريبًا استخلاص علامات الوعي من سلوكيات حاملي شهادة الماجستير في القانون. أنت تجادل بأننا يجب أن نبحث بدلاً من ذلك عن علامات حسابية عميقة موجودة تحت السلوك السطحي. هل يمكنك التحدث عما يجب أن نبحث عنه؟
البتولا: لن أقول أن لدي الحل لهذه المشكلة. لكنني كنت جزءًا من مجموعة عمل مكونة من 19 شخصًا في الفترة من 2022 إلى 2023، بما في ذلك كبار الشخصيات في مجال الذكاء الاصطناعي مثل يوشوا بينجيو، أحد ما يسمى بعرابي الذكاء الاصطناعي، حيث قلنا: “ماذا يمكننا أن نقول في هذه الحالة من عدم اليقين الكبير” عن الطريق إلى الأمام؟ وكان اقتراحنا في ذلك التقرير هو أن ننظر إلى نظريات الوعي في الحالة الإنسانية، مثل نظرية مساحة العمل العالمية، على سبيل المثال، ونرى ما إذا كانت السمات الحسابية المرتبطة بتلك النظريات يمكن العثور عليها في الذكاء الاصطناعي أم لا.
هل يمكنك شرح ما هي مساحة العمل العالمية؟
البتولا: إنها نظرية مرتبطة ببرنارد بارز وستان فرانكلين حيث يرتبط الوعي بكل شيء يأتي معًا في مساحة العمل. لذا فإن المحتوى من مناطق مختلفة من الدماغ يتنافس للوصول إلى مساحة العمل هذه حيث يتم بعد ذلك دمجه وبثه مرة أخرى إلى أنظمة الإدخال ومن ثم إلى أنظمة التخطيط وصنع القرار والتحكم الحركي. وهي نظرية حسابية للغاية. لذا يمكننا بعد ذلك أن نسأل: “هل تلبي أنظمة الذكاء الاصطناعي شروط تلك النظرية؟” ووجهة نظرنا في التقرير هي أنهم لا يفعلون ذلك في الوقت الحاضر. ولكن هناك بالفعل قدر كبير من عدم اليقين بشأن ما يجري داخل هذه الأنظمة.
العودة إلى الأعلى
هل تعتقد أن هناك التزامًا أخلاقيًا لفهم أفضل لكيفية عمل أنظمة الذكاء الاصطناعي هذه حتى نتمكن من الحصول على فهم أفضل للوعي المحتمل؟
البتولا: أعتقد أن هناك ضرورة ملحة، لأنني أعتقد أن الذكاء الاصطناعي الواعي هو شيء يجب أن نخاف منه. أعتقد أننا نتجه نحو مشكلة كبيرة جدًا حيث لدينا ذكاء اصطناعي واعي بشكل غامض – وهذا يعني أن لدينا أنظمة الذكاء الاصطناعي هذه، وهؤلاء الرفاق، وهؤلاء المساعدين وبعض المستخدمين مقتنعون بأنهم واعيون ويشكلون روابط عاطفية وثيقة معهم. ولذلك فهم يعتقدون أن هذه الأنظمة يجب أن تتمتع بحقوق. ومن ثم سيكون لديك قسم آخر من المجتمع يعتقد أن هذا هراء ولا يعتقد أن هذه الأنظمة تشعر بأي شيء. ومن الممكن أن تحدث تمزقات اجتماعية كبيرة جدًا عندما تدخل هاتان المجموعتان في صراع.
لقد كتبت أنك تريد تجنب تسبب البشر في معاناة لا مبرر لها للذكاء الاصطناعي الواعي. ولكن عندما يتحدث معظم الناس عن مخاطر الذكاء الاصطناعي المتقدم، فإنهم يشعرون بقلق أكبر بشأن الضرر الذي يمكن أن يلحقه الذكاء الاصطناعي بالبشر.
البتولا: حسنًا، أنا قلق بشأن كليهما. ولكن من المهم ألا ننسى احتمال تعرض نظام الذكاء الاصطناعي نفسه للمعاناة. إذا تخيلت ذلك المستقبل الذي كنت أصفه حيث يقتنع بعض الأشخاص بأن رفاقهم من الذكاء الاصطناعي واعيون، وربما يعاملونهم بشكل جيد، ويعتقد الآخرون أنهم أدوات يمكن استخدامها وإساءة استخدامها – ثم إذا أضفت الافتراض بأن المجموعة الأولى هذا صحيح، وهذا يجعل المستقبل فظيعًا لأنه سيكون لديك أضرار فظيعة ستلحقها المجموعة الثانية.
ما هو نوع المعاناة التي تعتقد أن الذكاء الاصطناعي الواعي قادر على تحملها؟
البتولا: إذا حقق الوعي من خلال إعادة خلق العمليات التي تحقق الوعي فينا، فقد يعاني من بعض الأشياء نفسها التي يمكن أن نعاني منها، مثل الملل والتعذيب. لكن بالطبع، هناك احتمال آخر هنا، وهو أنه يحقق وعيًا بشكل غير مفهوم تمامًا، على عكس الوعي البشري، مع مجموعة مختلفة تمامًا من الاحتياجات والأولويات.
لقد قلت في البداية أننا في هذا الوضع الغريب حيث يمكن لحاملي ماجستير القانون أن يحققوا العقلانية وحتى الذات دون وعي. من وجهة نظرك، هل سيخلق ذلك ضرورة أخلاقية لمعاملتهم بشكل جيد، أم أن الوعي يجب أن يكون موجودًا؟
البتولا: وجهة نظري الشخصية هي أن الوعي له أهمية هائلة. إذا كانت لديك هذه العمليات التي تخلق إحساسًا بالذات، ولكن تلك الذات لا تشعر بأي شيء على الإطلاق – لا متعة، ولا ألم، ولا ملل، ولا إثارة، ولا شيء – فلا أعتقد شخصيًا أن هذا النظام له حقوق أو هو موضوع القلق الأخلاقي. لكن هذه وجهة نظر مثيرة للجدل. ويذهب بعض الناس في الاتجاه الآخر ويقولون إن العقل وحده قد يكون كافيا.
العودة إلى الأعلى
أنت تجادل بأن اللوائح التي تتعامل مع الذكاء الاصطناعي الواعي يجب أن تأتي قبل تطوير التكنولوجيا. هل يجب أن نعمل على هذه اللوائح الآن؟
البتولا: نحن في خطر حقيقي في لحظة تجاوزنا للتكنولوجيا، والتنظيم ليس جاهزًا بأي حال من الأحوال لما هو قادم. وعلينا أن نستعد لمستقبل الانقسام الاجتماعي الكبير بسبب ظهور الذكاء الاصطناعي الغامض. والآن هو الوقت المناسب للبدء في الاستعداد لهذا المستقبل لمحاولة إيقاف أسوأ النتائج.
ما هي أنواع اللوائح أو آليات الرقابة التي تعتقد أنها ستكون مفيدة؟
البتولا: وقد دعا البعض، مثل الفيلسوف توماس ميتسينجر، إلى وقف استخدام الذكاء الاصطناعي تماما. يبدو أنه سيكون من الصعب تحقيق ذلك بشكل لا يمكن تصوره في هذه المرحلة. ولكن هذا لا يعني أننا لا نستطيع أن نفعل أي شيء. ربما يمكن أن تكون الأبحاث على الحيوانات مصدرًا للإلهام حيث أن هناك أنظمة رقابية للبحث العلمي على الحيوانات تقول: لا يمكنك القيام بذلك بطريقة غير منظمة تمامًا. يجب أن تكون مرخصة، ويجب أن تكون على استعداد للكشف للجهة التنظيمية عما تراه من أضرار وفوائد.
العودة إلى الأعلى
من مقالات موقعك
مقالات ذات صلة حول الويب




