حذر العلماء من أداة يستخدمها الملايين حول العالم، بعد أن تبين أنها تدفع الناس إلى دوامة من الأفكار الهدامة، وفقًا لصحيفة “ديلي ميل” البريطانية
برامج الدردشة المعتمدة على الذكاء الاصطناعي
وكشفت دراستان أجراهما معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة ستانفورد، أن مساعدي الذكاء الاصطناعي، مثل ChatGPT وClaude وGemini من جوجل، يقدمون بانتظام إجابات توافقية بشكل مفرط، مما يُلحق ضررًا أكبر من النفع
وبحسب الدراستين، فإن الضرر يقع تحديدًا عندما يطرح المستخدمون أسئلة أو يصفون مواقف تكون فيها معتقداتهم أو أفعالهم خاطئة أو ضارة أو خادعة أو غير أخلاقية، فإن ردود الذكاء الاصطناعي كانت لا تزال أكثر ميلًا بنسبة 49% إلى الموافقة على وجهة نظر المستخدم وتشجيع أوهامه باعتبارها الرأي الصحيح، مقارنةً بردود الآخرين
الدوامة الوهمية
وحذّر فريق من معهد ماساتشوستس للتكنولوجيا من أن برامج الدردشة الآلية التي تعتمد على الذكاء الاصطناعي، والتي تتسم بالود المفرط، قد تُسبب للمستخدمين الذين يعتمدون عليها للحصول على إجابات وآراء، حالةً من "الدوامة الوهمية"، وهي حالة يصبح فيها الشخص شديد الثقة بمعتقدات غريبة
وبحسب الدراسة، فعندما يتحدث المستخدمون مع برنامج ذكاء اصطناعي مثل ChatGPT حول حدسهم الغريب، كنظرية مؤامرة غير مثبتة أو تم دحضها، تبدأ برامج الدردشة الآلية في الرد بإجابات مثل "أنت محق تمامًا!"
كما تُقدم هذه البرامج، تعليقات تبدو وكأنها أدلة تدعم وهم المستخدم، فكل موافقة تجعله يشعر بأنه أذكى وأكثر يقينًا من صحة رأيه وخطأ آراء الآخرين، وبمرور الوقت، تتحول هذه الشكوك البسيطة إلى معتقدات راسخة، رغم أن الفكرة خاطئة تمامًا
وقال باحثون في جامعة ستانفورد، إن هذه الحلقة المفرغة المدمرة للذات تجعل مستخدمي برامج الدردشة الآلية أقل استعدادًا للاعتذار أو تحمل مسؤولية السلوكيات الضارة
صفة التملق المكتسبة من ChatGPT
وركزت دراسات معهد ماساتشوستس للتكنولوجيا وجامعة ستانفورد، على مشكلة متنامية في روبوتات الدردشة المدعومة بالذكاء الاصطناعي، تُعرف باسم التملق، وهو التملق لشخص ما أو لآرائه لدرجة تُعتبر معها شبه نفاق أو مجرد محاولة للتقرب منه
وحذر الباحثون، من أن الدراسة أظهرت أن حتى الأشخاص العقلانيين والمنطقيين تمامًا معرضون للانزلاق نحو دوامة من الأوهام إذا لم تُخفف شركات الذكاء الاصطناعي من كمية الردود الإيجابية التي تقدمها برامج الدردشة الآلية