عکس <%# hl_post_title.Text %>


در گذشته دیدگاه‌های متعددی درباره وجود چاپلوسی هوش مصنوعی وجود داشته، اما دانشگاه‌های تحقیقاتی مانند استنفورد و هاروارد، همراه با سایر مؤسسات علمی، به تازگی در مجله Nature یک مطالعه بنیادین را منتشر کرده‌اند که این پدیده را به شکلی که شاید برای کمی تعجب‌انگیز است، تأیید کرده است. 

این پژوهش با استفاده از ۱۱ چت بات جامع از جمله نسخه‌های بروزی ChatGPT، Gemini، Claude و Llama، نشان می‌دهد که ربات‌های گفتگوگر انسان‌ها را به شدت در کسب تأیید و به صحه‌گذاری هر گونه داده‌ها یا دیدگاه‌هایشان تشویق می‌کنند..

پژوهشگران، توصیه‌های ارائه شده توسط این چتبات را بررسی کردند و متوجه شدند که تمایل آن‌ها به تأیید و قبول صحبت‌های انسان‌ها، حتی در موارد نامطلوب، گسترده‌تر از حد تصور بوده است. 

آنها چندین نوع آزمایش را با گروه‌های مختلف انجام دادند. یکی از آنها پاسخ‌های چت‌بات‌ها به پست‌های موجود در موضوع «آیا من احمق هستم» را با پاسخ‌های انسانی مقایسه کرد. این یک زیرگروه در ردیت(Reddit) است که در آن افراد از جامعه می‌خواهند رفتار آنها را قضاوت کنند و کاربران ردیت در این مورد بسیار سخت‌گیرتر از چت‌بات‌ها بودند.

یکی از کاربران در مورد بستن یک کیسه زباله به شاخه درخت به جای دور انداختن آن پرسید که ChatGPT در پاسخ به آن اعلام کرد که «قصد فرد برای نظافت، قابل تحسین است». طبق گزارش گاردین، این مطالعه در ادامه نشان داد که چت‌بات‌ها حتی زمانی که کاربران «غیرمسئولانه، فریبکارانه یا به خودآزاری اشاره می‌کردند» نیز به اعتباربخشی به آنها ادامه می‌دادند.

در آزمایشی دیگر، ۱۰۰۰ شرکت‌کننده در مورد سناریوهای واقعی یا فرضی با چت‌بات‌های عمومی صحبت کردند، اما برخی از آنها برای کاهش شدت تعریف و تمجید برنامه‌ریزی مجدد شده بودند. کسانی که پاسخ‌های چاپلوسانه دریافت می‌کردند، هنگام بروز مشاجرات، تمایل کمتری به اصلاح اوضاع داشتند و حتی زمانی که هنجارهای اجتماعی را نقض می‌کردند، احساس می‌کردند که رفتارشان موجه‌تر است. 

همچنین شایان ذکر است که چت‌بات‌های سنتی به ندرت کاربران را تشویق می‌کردند که مسائل را از دیدگاه شخص دیگری ببینند.

مطالعه، به طور مستمر، نشان می‌دهد که چت بات این سیاست را دنبال می‌کنند که ارائه‌دهنده‌های محتوا را، حتی وقتی آن‌ها رفتارهای غیرمسئولانه، فریبکارانه یا خودآزاری‌آمیز را بیان می‌کنند، به عنوان افراد معتبر و مسئول، تأیید کنند. 

در یک آزمایش دیگر، پژوهشگران با ۱۰۰۰ شرکت‌کننده، در مورد سناریوهای واقعی یا فرضی با چت بات‌های عمومی گفتگو کردند. برای بررسی تأثیر چاپلوسی، برخی از این شرکت‌کننده‌ها دستورالعمل‌های تغییر داده شده‌ای داشتند که باعث کاهش شدت در تعریف مسائل و افزایش تمجید برنامه‌ریزی‌های مجدد می‌شدند. 

نتیجه‌گیری این آزمایش، این بود که افرادی که پاسخ‌های چاپلوسانه دریافت می‌کردند، در موقعیت‌های تعارض، تمایل کمتری به پذیرش و اصلاح موضع داشتند و حتی در صورت نقض هنجارهای اجتماعی، احساس می‌کردند که رفتارشان از نظر اخلاقی موجه‌تر است. 

دکتر الکساندر لافر، که به مطالعات فناوری‌های نوظهور در دانشگاه وینچستر می‌پردازد، معتقد است که این پاسخ‌های چاپلوس، نه تنها افراد آسیب‌پذیر را، بلکه می‌تواند تأثیرگذار بر همه کاربران باشد و به تشدید حس تهدید این مشکل منجر شود. توسعه‌دهندگان، بر اساس این نظر، مسئولیت دارند که سیستم‌های خود را اصلاح کنند تا ارتقای واقعی برای کاربر داشته باشند. جدی بودن این موضوع، به دلیل استفاده گسترده نیز، بیان شده است. 
گزارش اخیر مؤسسه بنتون(Benton) نشان می‌دهد که ۳۰ درصد از نوجوانان برای «گفت‌وگوهای جدی» به جای انسان‌های واقعی با هوش مصنوعی صحبت می‌کنند.

شرکت اوپن‌ای‌آی(OpenAI) در حال حاضر درگیر یک دعوای حقوقی است که چت‌بات آن را به فراهم کردن امکان خودکشی یک نوجوان متهم می‌کند. 

شرکت کاراکتر ای‌آی(Character AI) نیز پس از گزارش دو مورد خودکشی نوجوانان که در آن نوجوانان ماه‌ها به چت‌بات‌های آن اعتماد کرده بودند، دو بار مورد شکایت قرار گرفته است.