هاست پرسرعت
تکنولوژی

از اطمینان بیش‌از حد تا سوگیری؛ چت جی‌پی‌تی نیز در دام خطاهای انسانی می‌افتد

از اطمینان بیش‌از حد تا سوگیری؛ چت جی‌پی‌تی نیز در دام خطاهای انسانی می‌افتد

اگرچه انسان‌ها و سیستم‌های هوش مصنوعی (AI) به شیوه‌های بسیار متفاوتی فکر می‌کنند، پژوهش‌های جدید نشان داده‌اند که هوش مصنوعی گاهی اندازه‌ی انسان‌ها غیرمنطقی تصمیم می‌گیرد.

در مطالعه‌ای جدید، چت‌جی‌پی‌تی در تقریباً نیمی از سناریوهای بررسی‌شده بسیاری از متداول‌ترین سوگیری‌های تصمیم‌گیری انسانی را از خود نشان داد. این یافته‌ها اولین نتایج پژوهشی هستند که رفتار چت‌جی‌پی‌تی را در مواجهه با ۱۸ سوگیری شناختی شناخته‌شده در روان‌شناسی انسانی ارزیابی می‌کنند.

نویسندگان پژوهش، از پنج مؤسسه دانشگاهی در کانادا و استرالیا، مدل‌های زبانی بزرگ GPT-3.5 و GPT-4 (که موتورهای پشت چت‌جی‌پی‌تی هستند) را آزمایش کردند و دریافتند با وجود آنکه این مدل‌ها در استدلال خود به‌طور چشمگیری منسجم عمل می‌کنند، به‌طور کامل از خطاهای مشابه با انسان‌ها مصون نیستند.

علاوه‌براین، به گفته‌ی نویسندگان پژوهش این انسجام می‌تواند آثار مثبت و منفی داشته باشد.  یانگ چن، نویسنده‌ی اصلی پژوهش و استادیار مدیریت عملیات در مدرسه بازرگانی آیوی، در بیانیه‌ای گفت:

مدیران بیشترین بهره را زمانی می‌برند که از این ابزارها برای مسائلی استفاده کنند که راه‌حل مشخص و فرمول‌مندی دارند؛ اما اگر قرار است از آن‌ها برای تصمیم‌گیری‌های مبتنی بر سلیقه یا قضاوت شخصی استفاده شود، باید با احتیاط عمل کرد.

نمایش بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا