از اطمینان بیشاز حد تا سوگیری؛ چت جیپیتی نیز در دام خطاهای انسانی میافتد

از اطمینان بیشاز حد تا سوگیری؛ چت جیپیتی نیز در دام خطاهای انسانی میافتد
اگرچه انسانها و سیستمهای هوش مصنوعی (AI) به شیوههای بسیار متفاوتی فکر میکنند، پژوهشهای جدید نشان دادهاند که هوش مصنوعی گاهی اندازهی انسانها غیرمنطقی تصمیم میگیرد.
در مطالعهای جدید، چتجیپیتی در تقریباً نیمی از سناریوهای بررسیشده بسیاری از متداولترین سوگیریهای تصمیمگیری انسانی را از خود نشان داد. این یافتهها اولین نتایج پژوهشی هستند که رفتار چتجیپیتی را در مواجهه با ۱۸ سوگیری شناختی شناختهشده در روانشناسی انسانی ارزیابی میکنند.
نویسندگان پژوهش، از پنج مؤسسه دانشگاهی در کانادا و استرالیا، مدلهای زبانی بزرگ GPT-3.5 و GPT-4 (که موتورهای پشت چتجیپیتی هستند) را آزمایش کردند و دریافتند با وجود آنکه این مدلها در استدلال خود بهطور چشمگیری منسجم عمل میکنند، بهطور کامل از خطاهای مشابه با انسانها مصون نیستند.
علاوهبراین، به گفتهی نویسندگان پژوهش این انسجام میتواند آثار مثبت و منفی داشته باشد. یانگ چن، نویسندهی اصلی پژوهش و استادیار مدیریت عملیات در مدرسه بازرگانی آیوی، در بیانیهای گفت:
مدیران بیشترین بهره را زمانی میبرند که از این ابزارها برای مسائلی استفاده کنند که راهحل مشخص و فرمولمندی دارند؛ اما اگر قرار است از آنها برای تصمیمگیریهای مبتنی بر سلیقه یا قضاوت شخصی استفاده شود، باید با احتیاط عمل کرد.