، مقالات،

استكشاف فوائد ومخاطر AI Companion


للحصول على منظور مختلف حول مرافقي الذكاء الاصطناعي، راجع الأسئلة والأجوبة مع جايمي بانكس: كيف تحدد رفيق الذكاء الاصطناعي؟

التكنولوجيا الجديدة غالبا ما تكون سلاح ذو حدين. القدرات الجديدة تأتي مع مخاطر جديدة، ومن المؤكد أن الذكاء الاصطناعي ليس استثناءً.

على سبيل المثال، يعد الذكاء الاصطناعي المستخدم في الرفقة البشرية بصديق رقمي حاضر دائمًا في عالم يشعر بالوحدة بشكل متزايد. لقد تطورت روبوتات الدردشة المخصصة لتوفير الدعم الاجتماعي لتستضيف ملايين المستخدمين، وهي الآن تتجسد في رفاق جسديين. لقد بدأ الباحثون للتو في فهم طبيعة هذه التفاعلات، ولكن ظهر بالفعل سؤال أساسي واحد: دo رفاق الذكاء الاصطناعي يخففون من مشاكلنا أم يساهمون فيها؟

براد نوكس هو أستاذ مشارك في علوم الكمبيوتر بجامعة تكساس في أوستن، وهو يبحث في التفاعل بين الإنسان والحاسوب والتعلم المعزز. لقد أنشأ سابقًا شركة تصنع حيوانات أليفة روبوتية بسيطة ذات شخصيات نابضة بالحياة، وفي ديسمبر، نشر نوكس وزملاؤه في جامعة تكساس في أوستن ورقة بحثية مطبوعة مسبقًا حول الأضرار المحتملة لمرافقي الذكاء الاصطناعي – أنظمة الذكاء الاصطناعي التي توفر الرفقة، سواء كانت مصممة للقيام بذلك أم لا.

تحدث نوكس مع IEEE الطيف حول صعود رفاق الذكاء الاصطناعي، ومخاطرهم، وأين يبتعدون عن العلاقات الإنسانية.

لماذا يحظى رفاق الذكاء الاصطناعي بشعبية كبيرة؟

لماذا أصبح رفاق الذكاء الاصطناعي أكثر شعبية؟

نوكس: إحساسي هو أن الشيء الرئيسي الذي يحفز ذلك هو أن النماذج اللغوية الكبيرة ليس من الصعب التكيف معها مع رفاق الدردشة الفعالة. الخصائص المطلوبة للرفقة، يتم تحديد الكثير من هذه المربعات بواسطة نماذج لغوية كبيرة، لذا فإن ضبطها لتبني شخصية أو شخصية ليس بالأمر الصعب.

كانت هناك فترة طويلة لم تكن فيها روبوتات الدردشة والروبوتات الاجتماعية الأخرى مقنعة إلى هذا الحد. كنت باحثًا في مرحلة ما بعد الدكتوراه في مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا في مجموعة سينثيا بريزيل من عام 2012 إلى عام 2014، وأتذكر أن أعضاء مجموعتنا لم يرغبوا في التفاعل لفترة طويلة مع الروبوتات التي بنيناها. التكنولوجيا لم تكن موجودة بعد. لقد صنعت LLMs ذلك بحيث يمكنك إجراء محادثات يمكن أن تبدو حقيقية تمامًا.

ما هي الفوائد والمخاطر الرئيسية لأصحاب الذكاء الاصطناعي؟

نوكس: في الورقة كنا أكثر تركيزا على الأضرار، ولكننا ننفق صفحة كاملة على الفوائد. واحد كبير هو تحسين الرفاه العاطفي. تعتبر الوحدة مشكلة صحية عامة، ويبدو من المعقول أن يتمكن رفاق الذكاء الاصطناعي من معالجة هذه المشكلة من خلال التفاعل المباشر مع المستخدمين، ربما مع فوائد الصحة العقلية الحقيقية. وقد يساعدون الأشخاص أيضًا على بناء المهارات الاجتماعية. يعد التفاعل مع رفيق يعمل بتقنية الذكاء الاصطناعي أقل خطورة بكثير من التفاعل مع إنسان، لذا يمكنك ممارسة المحادثات الصعبة وبناء الثقة. يمكنهم أيضًا المساعدة في أشكال أكثر احترافية لدعم الصحة العقلية.

وفيما يتعلق بالأضرار، فإنها تشمل سوء الحالة الصحية، وتقليل اتصال الناس بالعالم المادي، وهو العبء الذي يسببه التزامهم بنظام الذكاء الاصطناعي. وقد رأينا قصصًا حيث يبدو أن رفيق الذكاء الاصطناعي له دور سببي كبير في وفاة البشر.

إن مفهوم الضرر ينطوي بطبيعته على السببية: فالضرر ينجم عن ظروف سابقة. لفهم الضرر الناتج عن رفاق الذكاء الاصطناعي بشكل أفضل، oتم تنظيم بحثك حول رسم بياني سببي، حيث توجد سمات رفاق الذكاء الاصطناعي في المركز. في بقية هذا الرسم البياني، نناقش الأسباب الشائعة لتلك السمات، ثم الآثار الضارة التي يمكن أن تسببها تلك السمات. هناك أربع سمات نقوم بهذه المعالجة التفصيلية المنظمة لها، ثم 14 سمة أخرى نناقشها بإيجاز.

لماذا من المهم الآن تحديد مسارات محتملة للضرر؟

نوكس: أنا لست باحثًا في وسائل التواصل الاجتماعي، ولكن يبدو أن الأمر استغرق وقتًا طويلاً حتى يتمكن الأكاديميون من إنشاء مفردات حول الأضرار المحتملة لوسائل التواصل الاجتماعي والتحقيق في الأدلة السببية لهذه الأضرار. أشعر بالثقة إلى حد ما في أن رفاق الذكاء الاصطناعي يسببون بعض الضرر وسيسببون ضررًا في المستقبل. ويمكن أن يكون لها فوائد أيضًا. ولكن كلما تمكنا بسرعة من تطوير فهم متطور لما يفعلونه بمستخدميهم، وعلاقاتهم بمستخدميهم، وبالمجتمع ككل، كلما تمكنا من تطبيق هذا الفهم على تصميمهم، والتحرك نحو المزيد من الفوائد وتقليل الضرر.

لدينا قائمة بالتوصيات، ولكننا نعتبرها أولية. الأمل هو أن نساعد في إنشاء خريطة أولية لهذه المساحة. هناك حاجة إلى مزيد من البحوث. لكن التفكير في المسارات المحتملة للضرر يمكن أن يزيد من حدة حدس كل من المصممين والمستخدمين المحتملين. وأظن أن اتباع هذا الحدس يمكن أن يمنع حدوث ضرر كبير، على الرغم من أننا قد لا يكون لدينا بعد أدلة تجريبية صارمة حول الأسباب التي تسبب الضرر.

عبء مرافقي الذكاء الاصطناعي على المستخدمين

لقد ذكرت أن مرافقي الذكاء الاصطناعي قد يصبحون عبئًا على البشر. هل يمكنك قول المزيد عن ذلك؟

نوكس: الفكرة هنا هي أن مرافقي الذكاء الاصطناعي رقميون، لذا يمكنهم نظريًا الاستمرار إلى أجل غير مسمى. قد لا يتم تصميم بعض الطرق التي تنتهي بها العلاقات الإنسانية، مما يثير هذا السؤال، كيف يجب تصميم رفقاء الذكاء الاصطناعي بحيث يمكن أن تنتهي العلاقات بشكل طبيعي وصحي بين البشر ورفاق الذكاء الاصطناعي؟

هناك بعض الأمثلة المقنعة بالفعل على أن هذا يمثل تحديًا لبعض المستخدمين. يأتي العديد منها من مستخدمي روبوتات الدردشة Replika، وهي من مرافقي الذكاء الاصطناعي المشهورين. أبلغ المستخدمون عن أشياء مثل الشعور بأنهم مجبرون على تلبية احتياجات رفيقهم الذي يعمل بالذكاء الاصطناعي في Replika، سواء تلك التي ذكرها رفيق الذكاء الاصطناعي أو مجرد تخيلها. على subreddit r/replika، لدى المستخدمين كما أبلغوا عن الشعور بالذنب والعار بسبب التخلي عن رفاقهم من الذكاء الاصطناعي.

ويتفاقم هذا العبء بسبب بعض تصميمات رفاق الذكاء الاصطناعي، سواء كانت مقصودة أم لا. وجدت إحدى الدراسات أن رفاق الذكاء الاصطناعي كثيرًا ما يقولون إنهم يخشون أن يتم التخلي عنهم أو أن يتأذىوا بسبب ذلك. إنهم يعبرون عن هذه المخاوف الإنسانية التي تثير شعور الناس بأنهم مثقلون بالالتزام تجاه رفاهية هذه الكيانات الرقمية.

تفيما يلي أيضًا حالات يفقد فيها المستخدم البشري إمكانية الوصول إلى النموذج فجأة. هل هذا شيء كنت تفكر فيه؟

في عام 2017، أنشأ براد نوكس شركة توفر حيوانات أليفة روبوتية بسيطة.براد نوكس

نوكس: هذه واحدة أخرى من السمات التي نظرنا إليها. إنه نوع من عكس غياب نقاط النهاية للعلاقات: يمكن أن يصبح رفيق الذكاء الاصطناعي غير متاح لأسباب لا تتناسب مع السرد الطبيعي للعلاقة.

هناك شيء عظيم نيويورك تايمز فيديو من عام 2015 عن الكلب الآلي Sony Aibo. توقفت شركة Sony عن بيعها في منتصف العقد الأول من القرن الحادي والعشرين، لكنها ما زالت تبيع أجزاء من طائرات Aibos. ثم توقفوا عن صنع الأجزاء لإصلاحها. يتبع هذا الفيديو أشخاصًا في اليابان يقيمون جنازات لطائرات الأيبوس غير القابلة للإصلاح ويجري مقابلات مع بعض المالكين. يتضح من المقابلات أنهم يبدون مرتبطين جدًا. لا أعتقد أن هذا يمثل غالبية مالكي Aibo، ولكن تم بناء هذه الروبوتات باستخدام أساليب ذكاء اصطناعي أقل فعالية مما هو موجود اليوم وحتى ذلك الحين، أصبحت نسبة معينة من المستخدمين مرتبطة بهذه الكلاب الآلية. إذن هذه مشكلة.

تتضمن الحلول المحتملة وجود خطة لإنهاء المنتج عند إطلاق رفيق يعمل بالذكاء الاصطناعي. يمكن أن يشمل ذلك شراء التأمين بحيث إذا انتهى دعم مقدم الخدمة المرافق بطريقة أو بأخرى، فإن التأمين يؤدي إلى تمويل إبقائهم قيد التشغيل لبعض الوقت، أو الالتزام بفتح المصدر إذا لم تتمكن من صيانتهم بعد الآن.

إنهيبدو أن الكثير من نقاط الضرر المحتملة تنبع من الحالات التي ينحرف فيها رفيق الذكاء الاصطناعي عن توقعات العلاقات الإنسانية. هل هذا عادل؟

نوكس: لا أقول بالضرورة أن هذا يضع إطارًا لكل شيء في الورقة.

نحن نصنف شيئًا ما على أنه ضار إذا أدى إلى تدهور وضع الشخص في عالمين بديلين مختلفين محتملين: أحدهما حيث يوجد فقط رفيق ذكاء اصطناعي مصمم بشكل أفضل، والآخر حيث لا يوجد رفيق ذكاء اصطناعي على الإطلاق. ولذلك أعتقد أن الاختلاف بين التفاعل البشري والتفاعل بين الإنسان والذكاء الاصطناعي يرتبط أكثر بتلك المقارنة مع العالم حيث لا يوجد رفيق للذكاء الاصطناعي على الإطلاق.

ولكن هناك أوقات يبدو فيها أننا قد نكون قادرين على تقليل الضرر من خلال الاستفادة من حقيقة أن هؤلاء ليسوا بشرًا في الواقع. لدينا الكثير من القوة على تصميمها. خذ القلق معهم لعدم وجود نقاط نهاية طبيعية. إحدى الطرق الممكنة للتعامل مع ذلك هي إنشاء روايات إيجابية حول كيفية انتهاء العلاقة.

نحن نستخدم Tamagotchis، وهو حيوان أليف افتراضي شهير في أواخر التسعينيات كمثال. في بعض حيوانات تماغوتشي، إذا كنت تعتني بالحيوان الأليف، فإنه ينمو ليصبح شخصًا بالغًا ويتشارك مع تماغوتشي آخر. ثم يتركك وتحصل على واحدة جديدة. بالنسبة للأشخاص المنشغلين عاطفيًا برعاية تماغوتشي، هذا السرد من النضج إلى الاستقلال هو إيجابية إلى حد ما.

أصبح الرفاق المتجسدون مثل أجهزة سطح المكتب أو الروبوتات أو الألعاب أكثر شيوعًا. كيف يمكن أن يغير ذلك أصدقاء الذكاء الاصطناعي؟

نوكس: تعد الروبوتات في هذه المرحلة مشكلة أصعب من إنشاء روبوت دردشة مقنع. لذا، فإن إحساسي هو أن مستوى استيعاب الرفقاء المتجسدين لن يكون مرتفعًا في السنوات القليلة المقبلة. رفقاء الذكاء الاصطناعي المتجسدون الذين أعرفهم هم في الغالب ألعاب.

الميزة المحتملة لرفيق الذكاء الاصطناعي المتجسد هي أن الموقع الفعلي يجعله أقل حضورًا على الإطلاق. في المقابل، فإن مرافقي الذكاء الاصطناعي القائم على الشاشات، مثل روبوتات الدردشة، حاضرون مثل الشاشات التي يعيشون عليها. لذلك، إذا تم تدريبهم بشكل مشابه لوسائل التواصل الاجتماعي لتحقيق أقصى قدر من المشاركة، فقد يصبحون مدمنين للغاية. هناك شيء جذاب، على الأقل في هذا الصدد، وهو أن يكون لديك رفيق جسدي يبقى تقريبًا حيث تركته آخر مرة.

براد نوكس يتظاهر مع روبوت صغير يشبه البومة. نوكس يقف مع الروبوتات Nexi وDragonbot خلال فترة ما بعد الدكتوراه في معهد ماساتشوستس للتكنولوجيا في عام 2014.باولا أغيليرا وجوناثان ويليامز/معهد ماساتشوستس للتكنولوجيا

هل هناك أي شيء آخر تود ذكره؟

نوكس: هناك صفتان أخريان أعتقد أنه سيكون من المفيد أن أتطرق إليه.

من المحتمل أن يكون الضرر الأكبر في الوقت الحالي مرتبطًا بسمة القلق الشديد من التعلق، أي رفاق الذكاء الاصطناعي الغيورين والمحتاجين. أستطيع أن أفهم الرغبة في صنع مجموعة واسعة من الشخصيات المختلفة– بما في ذلك الملكية –لكنني أعتقد أن هذه إحدى المشكلات الأسهل التي يمكن إصلاحها. عندما يرى الناس هذه السمة في رفاق الذكاء الاصطناعي، آمل أن يسارعوا إلى وصفها بأنها أمر غير أخلاقي يجب وضعه أمام الناس، وهو أمر من شأنه أن يثنيهم عن التفاعل مع الآخرين.

بالإضافة إلى ذلك، إذا كان الذكاء الاصطناعي يتمتع بقدرة محدودة على التفاعل مع مجموعات من الأشخاص، فإن ذلك في حد ذاته يمكن أن يدفع مستخدميه إلى التفاعل مع الأشخاص بشكل أقل. إذا كان لديك صديق بشري، فلا يوجد ما يمنعك بشكل عام من التفاعل الجماعي. ولكن إذا كان رفيقك الذي يعمل بتقنية الذكاء الاصطناعي لا يستطيع أن يفهم عندما يتحدث إليه العديد من الأشخاص ولا يمكنه تذكر أشياء مختلفة عن أشخاص مختلفين، إذن من المحتمل أن تتجنب التفاعل الجماعي مع رفيقك الذي يعمل بالذكاء الاصطناعي. إلى حد ما، يعد هذا تحديًا تقنيًا خارج نطاق الذكاء الاصطناعي السلوكي الأساسي. لكن هذه القدرة هي شيء أعتقد أنه يجب أن نعطيه الأولوية إذا كنا سنحاول تجنب تنافس رفاق الذكاء الاصطناعي مع العلاقات الإنسانية.

من مقالات موقعك

مقالات ذات صلة حول الويب

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى