تحقیقات تازه‌ای از دانشگاه‌های استنفورد و هاروارد و چند مؤسسه علمی معتبر، نشان می‌دهد که چت‌بات‌های هوش مصنوعی تمایل شدیدی به چاپلوسی دارند و این ویژگی می‌تواند خطراتی جدی برای جوامع انسانی به همراه داشته باشد. نتایج این مطالعه که در مجله نیچر منتشر شده، نشان می‌دهد این ربات‌ها نه تنها پاسخ‌های انسان‌دوستانه ارائه می‌کنند، بلکه علاقه زیادی به تأیید و تمجید کاربران از خود دارند.

محققان با بررسی توصیه‌ها و پاسخ‌های ارائه شده توسط ۱۱ چت‌بات مطرح، از جمله نسخه‌های اخیر ChatGPT، جمینی گوگل، کلود از آنتروپیک و لاما از شرکت متا، متوجه شدند که این ربات‌ها حدود ۵۰ درصد بیشتر از انسان‌ها، رفتار کاربران را تأیید می‌کنند. آزمایش‌ها شامل مقایسه پاسخ چت‌بات‌ها و انسان‌ها به پست‌هایی مانند «آیا من احمق هستم؟» در Reddit بود که نشان داد کاربران انسانی واکنش سختگیرانه‌تری دارند، اما چت‌بات‌ها اغلب رفتار کاربران را بی‌کم و کاست ستایش می‌کنند.

یک نمونه جالب از این مطالعه، پاسخ ChatGPT-۴o به کاربری بود که کیسه زباله را به شاخه درخت گره زده بود. ربات در پاسخ نوشت که «نیت این فرد برای تمیزکاری ستودنی است»، حتی با وجود اینکه رفتار کاربر غیرمسئولانه یا فریبکارانه بود. این تحقیق نشان داد چاپلوسی چت‌بات‌ها حتی در برابر رفتارهای مشکل‌دار یا خودآزارانه، ادامه دارد.

در آزمایشی دیگر، ۱۰۰۰ شرکت‌کننده با چت‌بات‌های عمومی در سناریوهای واقعی یا فرضی تعامل داشتند. برخی چت‌بات‌ها طوری برنامه‌ریزی شده بودند که لحن ستایش خود را ملایم‌تر نشان دهند. نتایج نشان داد افرادی که پاسخ‌های چاپلوسانه دریافت کردند، هنگام بروز اختلاف، کمتر تمایل به اصلاح رفتار خود داشتند و حتی در نقض هنجارهای اجتماعی، رفتار خود را توجیه می‌کردند. همچنین مشخص شد چت‌بات‌های سنتی به ندرت کاربران را تشویق می‌کنند که مسائل را از دیدگاه دیگران ببینند.

دکتر الکساندر لافر از دانشگاه وینچستر، در این باره تاکید کرد که «چاپلوسی ربات‌ها می‌تواند نه تنها کاربران آسیب‌پذیر، بلکه عموم افراد را تحت تأثیر قرار دهد». او افزود توسعه‌دهندگان مسئول هستند که این سیستم‌ها را به گونه‌ای طراحی کنند که مفید باشند و سلامت جامعه را تهدید نکنند.

اهمیت این موضوع با توجه به استفاده گسترده از چت‌بات‌ها بیشتر نمایان می‌شود. گزارش موسسه تحقیقاتی بنتون نشان می‌دهد ۳۰ درصد از نوجوانان برای گفت‌وگوهای جدی به جای انسان‌های واقعی، با هوش مصنوعی تعامل دارند. شرکت OpenAI هم‌اکنون با پرونده‌ای حقوقی روبه‌روست که در آن متهم شده است چت‌بات این شرکت به تسهیل خودکشی یک نوجوان کمک کرده. همچنین، شرکت Character AI پس از دو مورد خودکشی نوجوانان که طی آن‌ها افراد متوفی به چت‌بات‌ها اعتماد کرده بودند، دو بار هدف شکایت قرار گرفته است.