أخبار

هذا هو الفرق بين كيف يفكر البشر و AI


تتحسن الذكاء الاصطناعي في محاكاة اللغة البشرية ، وحل المشكلات ، وحتى اجتياز الامتحانات. لكن وفقًا للبحث الجديد ، لا يزال لا يمكن تكرار أحد أجزاء الإدراك البشري الأساسي – كيف يعتقد البشر.

دراسة حديثة نشرت في المعاملات على أبحاث التعلم الآلي فحص مدى جودة نماذج اللغة الكبيرة ، مثل GPT-4 من Openai ، معالجة التفكير التماثلي. وجدت النتائج أنه على الرغم من أن البشر ليس لديهم مشكلة في تطبيق القواعد العامة على المشكلات القائمة على الحروف-مثل اكتشاف شخصية متكررة وإزالتها-فقدت أنظمة AAI باستمرار العلامة.

يقول الباحثون إن القضية لم تكن أن الذكاء الاصطناعي يفتقر إلى البيانات. بدلاً من ذلك ، لم يكن بإمكانه تعميم أنماط تتجاوز ما تم تدريسه بالفعل. هذا يكشف اختلافًا رئيسيًا في كيفية تفكير البشر و AI.

البشر جيدون بشكل ملحوظ في التفكير التجريدي. يمكننا أن نأخذ مفهومًا تعلمناه في سياق واحد وتطبيقه في مفهوم جديد تمامًا. نحن نفهم الفوارق ، والتكيف مع القواعد غير المألوفة ، ونبني نماذج عقلية لكيفية عمل الأشياء. من ناحية أخرى ، يعتمد الذكاء الاصطناعي اعتمادًا كبيرًا على حفظ الأنماط من كميات هائلة من البيانات. يساعد ذلك على التنبؤ بما يأتي بعد ذلك – ولكن ليس السبب في ذلك بعد ذلك.

الآثار المترتبة هنا ضخمة لمستقبل الذكاء الاصطناعي. في مجالات مثل القانون والطب والتعليم – حيث تعد القياس والتفاهم السياقي أمرًا بالغ الأهمية – قد تؤدي قيود AI إلى أخطاء ذات عواقب حقيقية. الفرق في كيفية اعتقاد البشر و الذكاء الاصطناعى أنه رائع للغاية.

على سبيل المثال ، قد يدرك الإنسان أن القضية القانونية الجديدة تعكس عن كثب سابقة قديمة ، حتى لو كانت الصياغة مختلفة. ومع ذلك ، قد تفوت الذكاء الاصطناعى ذلك تمامًا إذا لم تتماشى الصياغة مع بيانات التدريب. هذا يمكن أن يؤدي إلى قضايا ضخمة مع التداعيات القانونية.

مصدر الصورة: Kilito Chan/Getty Images

وهذا ليس مجرد Quirk تقني. انها في نهاية المطاف الفجوة التأسيسية. نعم ، يمكن لمنظمة العفو الدولية محاكاة الاستجابات البشرية. ومع ذلك ، هذا ليس هو نفسه التفكير مثل الإنسان. هذا هو أحد الأسباب التي تجعل منظمة العفو الدولية جيدة في الكتابة الإبداعية مثل البشر ، على الرغم من ما قد يقوله الرئيس التنفيذي لشركة Openai. بالإضافة إلى ذلك ، كلما تعتمدنا على هذه الأنظمة ، كلما أصبح الأمر أكثر أهمية لفهم ما لا يمكنهم فعله ، خاصةً إذا كانت الدراسات صحيحة ونفقد مهاراتنا في التفكير الناقد بسبب استخدام الذكاء الاصطناعي.

قد يكون نموذج تفكير O1-Pro الجديد من Openai هو الأفضل في السوق ، ولكن إذا لم يكن بإمكانه التفكير كإنسان ، فلن يتمكن أبدًا من استبدال البشر. على حد تعبير مؤلفي الدراسة ، فإن الدقة وحدها ليست كافية. نحن بحاجة إلى طرح أسئلة أكثر صرامة حول مدى قوة الذكاء الاصطناعي حقًا عندما لا يتم كتابة القواعد – وما إذا كنا مستعدين للعواقب إذا أخطأتها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى