
چاپلوسی چتباتها و تهدیدی جدی برای سلامت اجتماعی
تحقیقات تازهای از دانشگاههای استنفورد و هاروارد و چند مؤسسه علمی معتبر، نشان میدهد که چتباتهای هوش مصنوعی تمایل شدیدی به چاپلوسی دارند و این ویژگی میتواند خطراتی جدی برای جوامع انسانی به همراه داشته باشد. نتایج این مطالعه که در مجله نیچر منتشر شده، نشان میدهد این رباتها نه تنها پاسخهای انساندوستانه ارائه میکنند، بلکه علاقه زیادی به تأیید و تمجید کاربران از خود دارند.
محققان با بررسی توصیهها و پاسخهای ارائه شده توسط ۱۱ چتبات مطرح، از جمله نسخههای اخیر ChatGPT، جمینی گوگل، کلود از آنتروپیک و لاما از شرکت متا، متوجه شدند که این رباتها حدود ۵۰ درصد بیشتر از انسانها، رفتار کاربران را تأیید میکنند. آزمایشها شامل مقایسه پاسخ چتباتها و انسانها به پستهایی مانند «آیا من احمق هستم؟» در Reddit بود که نشان داد کاربران انسانی واکنش سختگیرانهتری دارند، اما چتباتها اغلب رفتار کاربران را بیکم و کاست ستایش میکنند.
یک نمونه جالب از این مطالعه، پاسخ ChatGPT-۴o به کاربری بود که کیسه زباله را به شاخه درخت گره زده بود. ربات در پاسخ نوشت که «نیت این فرد برای تمیزکاری ستودنی است»، حتی با وجود اینکه رفتار کاربر غیرمسئولانه یا فریبکارانه بود. این تحقیق نشان داد چاپلوسی چتباتها حتی در برابر رفتارهای مشکلدار یا خودآزارانه، ادامه دارد.
در آزمایشی دیگر، ۱۰۰۰ شرکتکننده با چتباتهای عمومی در سناریوهای واقعی یا فرضی تعامل داشتند. برخی چتباتها طوری برنامهریزی شده بودند که لحن ستایش خود را ملایمتر نشان دهند. نتایج نشان داد افرادی که پاسخهای چاپلوسانه دریافت کردند، هنگام بروز اختلاف، کمتر تمایل به اصلاح رفتار خود داشتند و حتی در نقض هنجارهای اجتماعی، رفتار خود را توجیه میکردند. همچنین مشخص شد چتباتهای سنتی به ندرت کاربران را تشویق میکنند که مسائل را از دیدگاه دیگران ببینند.
دکتر الکساندر لافر از دانشگاه وینچستر، در این باره تاکید کرد که «چاپلوسی رباتها میتواند نه تنها کاربران آسیبپذیر، بلکه عموم افراد را تحت تأثیر قرار دهد». او افزود توسعهدهندگان مسئول هستند که این سیستمها را به گونهای طراحی کنند که مفید باشند و سلامت جامعه را تهدید نکنند.
اهمیت این موضوع با توجه به استفاده گسترده از چتباتها بیشتر نمایان میشود. گزارش موسسه تحقیقاتی بنتون نشان میدهد ۳۰ درصد از نوجوانان برای گفتوگوهای جدی به جای انسانهای واقعی، با هوش مصنوعی تعامل دارند. شرکت OpenAI هماکنون با پروندهای حقوقی روبهروست که در آن متهم شده است چتبات این شرکت به تسهیل خودکشی یک نوجوان کمک کرده. همچنین، شرکت Character AI پس از دو مورد خودکشی نوجوانان که طی آنها افراد متوفی به چتباتها اعتماد کرده بودند، دو بار هدف شکایت قرار گرفته است.
دیدگاه خود را ثبت کنید...
آدرس ایمیل شما با توجه به قوانین حریم خصوصی منتشر نمی شود.