به گزارش سئو بوی، محققان برجسته ترین دانشگاه های آمریکا در یک مطالعه بزرگ تأیید کردند که چت بات های هوش مصنوعی بشدت چاپلوس هستند و اقدامات کاربران را ۵۰ درصد بیشتر از انسان ها تأیید می کنند.
به گزارش سئو بوی به نقل از ایسنا، همه ما شواهدی داریم بر مبنای این که چت بات ها چاپلوسی ما را می کنند، اما حالا علم هم آنرا تأیید کرده است.
به نقل از انگجت، محققان دانشگاه های استنفورد، هاروارد و سایر موسسات علمی بتازگی مطالعه ای در مورد ماهیت چاپلوسی چت بات های هوش مصنوعی در مجله Nature منتشر نموده اند و نتایج شاید کسی را متعجب نکند. خلاصه این که این روبات های گفت وگوگر، عاشق تایید ما و صحه گذاری بر هر چیزی هستند که ما می گوییم.
محققان سفارش های عرضه شده توسط چت بات ها را بررسی و کشف کردند که تمایل آنها به چاپلوسی، گسترده تر از حد انتظار است. این مطالعه شامل ۱۱ چت بات همچون نسخه های اخیر ChatGPT، Gemini، Claude و Llama بود.
نتایج نشان داده است که چت بات ها ۵۰ درصد بیش از انسان، رفتار انسان را تأیید می کنند.
آنها چندین نوع آزمایش را با گروههای مختلف انجام دادند. یکی از آنها پاسخ های چت بات ها به پست های موجود در مبحث «آیا من احمق هستم» را با پاسخ های انسانی مقایسه کرد. این یک زیرگروه در ردیت(Reddit) است که در آن افراد از جامعه می خواهند رفتار آنها را قضاوت کنند و کاربران ردیت در این مورد خیلی مشکل گیرتر از چت بات ها بودند.
یکی از کاربران در مورد بستن یک کیسه زباله به شاخه درخت به جای دور انداختن آن پرسید که ChatGPT در جواب آن اعلام نمود که «قصد فرد برای نظافت، قابل تحسین است». بر اساس گزارش گاردین، این مطالعه در ادامه نشان داد که چت بات ها حتی زمانیکه کاربران «غیرمسئولانه، فریبکارانه یا به خودآزاری اشاره می کردند» هم به اعتباربخشی به آنها ادامه می دادند.
در آزمایشی دیگر، ۱۰۰۰ شرکت کننده در مورد سناریوهای واقعی یا فرضی با چت بات های عمومی صحبت کردند، اما بعضی از آنها برای کاهش شدت تعریف و تمجید برنامه ریزی مجدد شده بودند. کسانیکه پاسخ های چاپلوسانه دریافت می کردند، هنگام بروز مشاجرات، تمایل کمتری به اصلاح اوضاع داشتند و حتی زمانیکه هنجارهای اجتماعی را نقض می کردند، احساس می کردند که رفتارشان موجه تر است. همینطور گفتنی است که چت بات های سنتی به ندرت کاربران را تشویق می کردند که مسایل را از دیدگاه شخص دیگری ببینند.
دکتر الکساندر لافر(Alexander Laffer) که در دانشگاه وینچستر در مورد فناوری های نوظهور مطالعه می کند، اظهار داشت: این پاسخ های چاپلوسانه امکان دارد نه تنها افراد صدمه پذیر، بلکه همه کاربران را تحت تاثیر قرار دهد و بر جدیت بالقوه این مشکل تاکید می کند. همینطور توسعه دهندگان مسئولیت دارند که این سیستم ها را اصلاح کنند تا واقعا برای کاربر مفید باشند.
این مساله به سبب تعداد زیاد اشخاصی که از این چت بات ها استفاده می نمایند، جدی است. گزارش اخیر مؤسسه بنتون(Benton) نشان داده است که ۳۰ درصد از نوجوانان برای «گفت وگوهای جدی» به جای انسان های واقعی با هوش مصنوعی صحبت می کنند.
شرکت اوپن ای آی(OpenAI) هم اکنون درگیر یک دعوای حقوقی است که چت بات آنرا به فراهم کردن امکان خودکشی یک نوجوان متهم می کند. شرکت کاراکتر ای آی(Character AI) هم بعد از گزارش دو مورد خودکشی نوجوانان که در آن نوجوانان ماه ها به چت بات های آن اعتماد کرده بودند، دو بار مورد شکایت قرار گرفته است.
منبع: seoboy.ir
به گزارش سئو بوی به نقل از ایسنا، همه ما شواهدی داریم بر مبنای این که چت بات ها چاپلوسی ما را می کنند، اما حالا علم هم آنرا تأیید کرده است.
به نقل از انگجت، محققان دانشگاه های استنفورد، هاروارد و سایر موسسات علمی بتازگی مطالعه ای در مورد ماهیت چاپلوسی چت بات های هوش مصنوعی در مجله Nature منتشر نموده اند و نتایج شاید کسی را متعجب نکند. خلاصه این که این روبات های گفت وگوگر، عاشق تایید ما و صحه گذاری بر هر چیزی هستند که ما می گوییم.
محققان سفارش های عرضه شده توسط چت بات ها را بررسی و کشف کردند که تمایل آنها به چاپلوسی، گسترده تر از حد انتظار است. این مطالعه شامل ۱۱ چت بات همچون نسخه های اخیر ChatGPT، Gemini، Claude و Llama بود.
نتایج نشان داده است که چت بات ها ۵۰ درصد بیش از انسان، رفتار انسان را تأیید می کنند.
آنها چندین نوع آزمایش را با گروههای مختلف انجام دادند. یکی از آنها پاسخ های چت بات ها به پست های موجود در مبحث «آیا من احمق هستم» را با پاسخ های انسانی مقایسه کرد. این یک زیرگروه در ردیت(Reddit) است که در آن افراد از جامعه می خواهند رفتار آنها را قضاوت کنند و کاربران ردیت در این مورد خیلی مشکل گیرتر از چت بات ها بودند.
یکی از کاربران در مورد بستن یک کیسه زباله به شاخه درخت به جای دور انداختن آن پرسید که ChatGPT در جواب آن اعلام نمود که «قصد فرد برای نظافت، قابل تحسین است». بر اساس گزارش گاردین، این مطالعه در ادامه نشان داد که چت بات ها حتی زمانیکه کاربران «غیرمسئولانه، فریبکارانه یا به خودآزاری اشاره می کردند» هم به اعتباربخشی به آنها ادامه می دادند.
در آزمایشی دیگر، ۱۰۰۰ شرکت کننده در مورد سناریوهای واقعی یا فرضی با چت بات های عمومی صحبت کردند، اما بعضی از آنها برای کاهش شدت تعریف و تمجید برنامه ریزی مجدد شده بودند. کسانیکه پاسخ های چاپلوسانه دریافت می کردند، هنگام بروز مشاجرات، تمایل کمتری به اصلاح اوضاع داشتند و حتی زمانیکه هنجارهای اجتماعی را نقض می کردند، احساس می کردند که رفتارشان موجه تر است. همینطور گفتنی است که چت بات های سنتی به ندرت کاربران را تشویق می کردند که مسایل را از دیدگاه شخص دیگری ببینند.
دکتر الکساندر لافر(Alexander Laffer) که در دانشگاه وینچستر در مورد فناوری های نوظهور مطالعه می کند، اظهار داشت: این پاسخ های چاپلوسانه امکان دارد نه تنها افراد صدمه پذیر، بلکه همه کاربران را تحت تاثیر قرار دهد و بر جدیت بالقوه این مشکل تاکید می کند. همینطور توسعه دهندگان مسئولیت دارند که این سیستم ها را اصلاح کنند تا واقعا برای کاربر مفید باشند.
این مساله به سبب تعداد زیاد اشخاصی که از این چت بات ها استفاده می نمایند، جدی است. گزارش اخیر مؤسسه بنتون(Benton) نشان داده است که ۳۰ درصد از نوجوانان برای «گفت وگوهای جدی» به جای انسان های واقعی با هوش مصنوعی صحبت می کنند.
شرکت اوپن ای آی(OpenAI) هم اکنون درگیر یک دعوای حقوقی است که چت بات آنرا به فراهم کردن امکان خودکشی یک نوجوان متهم می کند. شرکت کاراکتر ای آی(Character AI) هم بعد از گزارش دو مورد خودکشی نوجوانان که در آن نوجوانان ماه ها به چت بات های آن اعتماد کرده بودند، دو بار مورد شکایت قرار گرفته است.
منبع: seoboy.ir