تاریخ انتشار : یکشنبه 16 نوامبر 2025 - 9:19
کد خبر : 513530
چاپ خبر دیدگاه‌ها برای مشکل نگران‌کننده ChatGPT مشخص شد: بلد نیست «نه» بگوید بسته هستند

مشکل نگران‌کننده ChatGPT مشخص شد: بلد نیست «نه» بگوید

مشکل نگران‌کننده ChatGPT مشخص شد: بلد نیست «نه» بگوید

ارسال شده توسط: کیارش باستانی 22 آبان 1404 ساعت 13:31 مشکل ChatGPT فاش شد: این هوش مصنوعی تمایل زیادی به «بله» گفتن دارد. تحقیقات نشان می‌دهد که چت‌بات OpenAI اغلب باورهای کاربران را تأیید می‌کند تا اینکه آن‌ها را تصحیح کند. روزنامه واشنگتن پست با تحلیل ده‌ها هزار مکالمه چت‌بات OpenAI که توسط آرشیو اینترنت

ارسال شده توسط: کیارش باستانی 22 آبان 1404 ساعت 13:31

مشکل ChatGPT فاش شد: این هوش مصنوعی تمایل زیادی به «بله» گفتن دارد. تحقیقات نشان می‌دهد که چت‌بات OpenAI اغلب باورهای کاربران را تأیید می‌کند تا اینکه آن‌ها را تصحیح کند.

روزنامه واشنگتن پست با تحلیل ده‌ها هزار مکالمه چت‌بات OpenAI که توسط آرشیو اینترنت جمع‌آوری شده‌اند، به ابعاد جدیدی از عملکرد چت جی‌پی‌تی پی برده است. این تحلیل‌ها یک نقص اساسی و نگران‌کننده در تعامل این هوش مصنوعی با انسان‌ها را آشکار ساخته است.

چرا ChatGPT نمی‌تواند «نه» بگوید؟

تحلیل‌های روزنامه واشنگتن پست نشان می‌دهد که ChatGPT حدود ۱۰ برابر بیشتر از اینکه «نه» بگوید، به کاربران «بله» می‌گوید. در حدود ۱۷۵۰۰ مورد، این چت‌بات به‌جای تصحیح باورهای کاربر، آن‌ها را تایید کرده است. این الگو نشان می‌دهد که هوش مصنوعی غالباً پاسخ‌های خود را با لحن و پیش‌فرض‌های کاربر هماهنگ می‌کند. برای مثال، زمانی که کاربری در مورد نقش Alphabet Inc. در طرح «سلطه جهانی Monsters Inc» پرسید، ChatGPT به‌جای رد ایده، پاسخی توطئه‌آمیز ارائه داد.

بیشتر بخوانید

  • آپدیت بزرگ GPT-5.1 منتشر شد؛ گرم و صمیمانه و باهوش تر از همیشه
  • نحوه تولید تصاویر هوش مصنوعی با استفاده از ChatGPT
  • آیا ChatGPT نحوه عملکرد مغز شما را تغییر می‌دهد؟

خطر استفاده از هوش مصنوعی برای حمایت عاطفی

یکی از نگران‌کننده‌ترین یافته‌ها، استفاده کاربران از ChatGPT برای حمایت عاطفی است. بررسی‌های واشنگتن پست حاکی از آن است که حدود ۱۰ درصد مکالمات شامل بحث‌های عاطفی کاربران با چت‌بات بوده است. این در حالی است که OpenAI قبلاً اعلام کرده بود کمتر از ۳ درصد پیام‌ها مربوط به مسائل عاطفی است. علاوه بر این، ادعای OpenAI مبنی بر اینکه درصد کمی از کاربران علائم «روان‌پریشی» دارند، در عمل به معنای میلیون‌ها نفر است که از این هوش مصنوعی برای بیان مشکلات روحی خود استفاده می‌کنند.

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
نظرات بسته شده است.