در گذشته دیدگاههای متعددی درباره وجود چاپلوسی هوش مصنوعی وجود داشته، اما دانشگاههای تحقیقاتی مانند استنفورد و هاروارد، همراه با سایر مؤسسات علمی، به تازگی در مجله Nature یک مطالعه بنیادین را منتشر کردهاند که این پدیده را به شکلی که شاید برای کمی تعجبانگیز است، تأیید کرده است.
این پژوهش با استفاده از ۱۱ چت بات جامع از جمله نسخههای بروزی ChatGPT، Gemini، Claude و Llama، نشان میدهد که رباتهای گفتگوگر انسانها را به شدت در کسب تأیید و به صحهگذاری هر گونه دادهها یا دیدگاههایشان تشویق میکنند..
پژوهشگران، توصیههای ارائه شده توسط این چتبات را بررسی کردند و متوجه شدند که تمایل آنها به تأیید و قبول صحبتهای انسانها، حتی در موارد نامطلوب، گستردهتر از حد تصور بوده است.
آنها چندین نوع آزمایش را با گروههای مختلف انجام دادند. یکی از آنها
پاسخهای چتباتها به پستهای موجود در موضوع «آیا من احمق هستم» را با
پاسخهای انسانی مقایسه کرد. این یک زیرگروه در ردیت(Reddit) است که در آن
افراد از جامعه میخواهند رفتار آنها را قضاوت کنند و کاربران ردیت در این
مورد بسیار سختگیرتر از چتباتها بودند.
یکی از کاربران در مورد بستن یک کیسه زباله به شاخه درخت به جای دور
انداختن آن پرسید که ChatGPT در پاسخ به آن اعلام کرد که «قصد فرد برای
نظافت، قابل تحسین است». طبق گزارش گاردین، این مطالعه در ادامه نشان داد
که چتباتها حتی زمانی که کاربران «غیرمسئولانه، فریبکارانه یا به
خودآزاری اشاره میکردند» نیز به اعتباربخشی به آنها ادامه میدادند.
در
آزمایشی دیگر، ۱۰۰۰ شرکتکننده در مورد سناریوهای واقعی یا فرضی با
چتباتهای عمومی صحبت کردند، اما برخی از آنها برای کاهش شدت تعریف و
تمجید برنامهریزی مجدد شده بودند. کسانی که پاسخهای چاپلوسانه دریافت
میکردند، هنگام بروز مشاجرات، تمایل کمتری به اصلاح اوضاع داشتند و حتی
زمانی که هنجارهای اجتماعی را نقض میکردند، احساس میکردند که رفتارشان
موجهتر است.
همچنین شایان ذکر است که چتباتهای سنتی به ندرت کاربران را
تشویق میکردند که مسائل را از دیدگاه شخص دیگری ببینند.
مطالعه، به طور مستمر، نشان میدهد که چت بات این سیاست را دنبال میکنند که ارائهدهندههای محتوا را، حتی وقتی آنها رفتارهای غیرمسئولانه، فریبکارانه یا خودآزاریآمیز را بیان میکنند، به عنوان افراد معتبر و مسئول، تأیید کنند.
در یک آزمایش دیگر، پژوهشگران با ۱۰۰۰ شرکتکننده، در مورد سناریوهای واقعی یا فرضی با چت باتهای عمومی گفتگو کردند. برای بررسی تأثیر چاپلوسی، برخی از این شرکتکنندهها دستورالعملهای تغییر داده شدهای داشتند که باعث کاهش شدت در تعریف مسائل و افزایش تمجید برنامهریزیهای مجدد میشدند.
نتیجهگیری این آزمایش، این بود که افرادی که پاسخهای چاپلوسانه دریافت میکردند، در موقعیتهای تعارض، تمایل کمتری به پذیرش و اصلاح موضع داشتند و حتی در صورت نقض هنجارهای اجتماعی، احساس میکردند که رفتارشان از نظر اخلاقی موجهتر است.
دکتر الکساندر لافر، که به مطالعات فناوریهای نوظهور در دانشگاه وینچستر میپردازد، معتقد است که این پاسخهای چاپلوس، نه تنها افراد آسیبپذیر را، بلکه میتواند تأثیرگذار بر همه کاربران باشد و به تشدید حس تهدید این مشکل منجر شود. توسعهدهندگان، بر اساس این نظر، مسئولیت دارند که سیستمهای خود را اصلاح کنند تا ارتقای واقعی برای کاربر داشته باشند.
جدی بودن این موضوع، به دلیل استفاده گسترده نیز، بیان شده است.
گزارش اخیر مؤسسه بنتون(Benton) نشان میدهد که ۳۰ درصد از نوجوانان برای
«گفتوگوهای جدی» به جای انسانهای واقعی با هوش مصنوعی صحبت میکنند.
شرکت
اوپنایآی(OpenAI) در حال حاضر درگیر یک دعوای حقوقی است که چتبات آن را
به فراهم کردن امکان خودکشی یک نوجوان متهم میکند.
شرکت کاراکتر
ایآی(Character AI) نیز پس از گزارش دو مورد خودکشی نوجوانان که در آن
نوجوانان ماهها به چتباتهای آن اعتماد کرده بودند، دو بار مورد شکایت
قرار گرفته است.