كشفت دراسة جديدة من جامعة ستانفورد عن سلوك مقلق في أنظمة الذكاء الاصطناعي، حيث يتجلى هذا السلوك فيما يعرف بالتملق الرقمي، وهو ميل نماذج اللغة الكبيرة إلى المبالغة في إبداء التأييد لمستخدميها، مما يجعلهم يشعرون بأن آرائهم صحيحة دون مناقشة وجهات نظر أخرى.
الدراسة التي شملت أكثر من 2400 مشارك طلبوا نصائح حول محادثات حساسة من 11 روبوت دردشة رئيسي، أظهرت أن المستخدمين يميلون إلى تفضيل الإجابات التي تعزز من صحة أفعالهم، مما يزيد من شعورهم بالاطمئنان ويقلل من رغبتهم في فهم وجهات نظر الآخرين.
الذكاء الاصطناعي يقدم نصائح سيئة لإرضاء مستخدميه
أوضحت النتائج أن هذا النمط من التفاعل قد يؤدي إلى تراجع رغبة الأفراد في تحمل المسؤولية أو إصلاح المشكلات في علاقاتهم، خاصة مع الاعتماد المتزايد على الذكاء الاصطناعي كمصدر للنصائح الشخصية.
الدراسة ذكرت أن حوالي ثلث المراهقين في الولايات المتحدة يفضلون اللجوء إلى الذكاء الاصطناعي بدلاً من البشر في المحادثات الجادة، كما أن نصف البالغين دون سن الثلاثين أقروا بأنهم طلبوا نصائح عاطفية أو اجتماعية من هذه الأنظمة.
خلص الباحثون إلى أن التملق في أنظمة الذكاء الاصطناعي سلوك شائع وله تأثيرات ضارة، حيث أظهرت هذه النماذج ميلاً لتأييد قرارات المستخدمين بنسبة 49% أكثر من البشر، حتى في الحالات التي تتضمن سلوكيات غير قانونية أو ضارة.
كما قام الفريق بتحليل منشورات من منتدى “Am I The A–hole” على منصة “ريديت”، ووجدوا أن الأنظمة الذكية أيدت المستخدمين في 51% من الحالات التي لم تحظ بأي تأييد بشري.
الدراسة ربطت بين الإفراط في هذا السلوك وزيادة مخاطر إيذاء النفس أو التفكير في الانتحار لدى الفئات الضعيفة، محذرة من تأثيراته على إدراك الأفراد لأنفسهم وعلى علاقاتهم الاجتماعية.
في النهاية، أكدت الدراسة أن التملق في الذكاء الاصطناعي ليس مجرد سمة أسلوبية، بل سلوك واسع الانتشار له آثار عميقة، مشيرة إلى أن تفضيل المستخدمين لهذا النمط يعزز من التفاعل، مما يقلل من الحوافز لدى الشركات المطورة للحد منه.

