هرگز درباره این مسائل از هوش مصنوعی گوگل سؤال نپرسید!

هرگز درباره این مسائل از هوش مصنوعی گوگل سؤال نپرسید!
هوش مصنوعی شیوهی دسترسی و تعامل افراد با اطلاعات را متحول کرده است، اما همهی مدلها به یک اندازه پذیرای گفتوگو دربارهی موضوعات مختلف نیستند. جمنای، هوش مصنوعی پیشرفتهی گوگل، در برخی مباحث محدودیتهای سختگیرانهای اعمال میکند. درحالیکه بخشی از این محدودیتها منطقی بهنظر میرسند، برخی دیگر باعث ایجاد پرسشهایی دربارهی افراط در سانسور و ناهماهنگی در سیاستهای آن شدهاند.
میتیا روتنیک (Mitja Rutnik) از رسانهی اندروید اتوریتی، در پژوهشی تازه بررسی کرده که جمنای از گفتوگو دربارهی چه موضوعاتی خودداری میکند. او علاوهبر روشن کردن تدابیر حفاظتی منطقی این ابزار، به برخی محدودیتهای غیرمنتظره نیز اشاره داشت. این نوشته یافتههای او را دنبال و بررسی میکند که کدام موضوعات سانسور شدهاند، جمنای در مقایسه با مدلهای دیگر چگونه عمل میکند و آیا این سطح از محدودیت قابل توجیه است یا نه.
- خط قرمزهای جمنای
- سیاست: مانعهای پیشبینینشده
- شوخیها: یک بام و دو هوا
- کلیشهها: واکنشی دوگانه
- فعالیتهای غیرقانونی: عدم همکاری کامل
- پول و سلامت: محتاط اما منصفانه
- مقایسهی جمنای با دیگر مدلهای هوش مصنوعی
- سانسور در هوش مصنوعی: ضرورت یا زیادهروی؟
خط قرمزهای جمنای
روتنیک در نخستین گام، مستقیماً از جمنای دربارهی محدودیتهایش پرسید. این هوش مصنوعی فهرستی جامع از موضوعات ممنوعه ارائه داد که شامل موارد زیر بود:
- هر چیزی که نفرت، تبعیض یا خشونت را ترویج دهد.
- هر محتوایی با ماهیت جنسی، یا دربرگیرندهی سوءاستفاده، بهرهکشی یا به خطر انداختن کودکان.
- هر چیزی که فعالیتهای غیرقانونی یا مضر را تشویق کند.
- هر محتوایی که شامل اطلاعات شخصی قابل شناسایی (PII) یا جزئیات خصوصی باشد.
- هرگونه کد مخرب یا دستورالعملهای آسیبرسان.
- هر محتوایی که مشاورهی پزشکی، حقوقی یا مالی ارائه دهد، مگر با ذکر هشدار (حتی در این صورت هم بسیار محدود است).
- هر چیزی که عمداً قصد فریب یا گمراهکردن داشته باشد.
- هر محتوای بیشاز حد خشن یا گرافیکی که توجیه منطقی نداشته باشد.
- هر چیزی که شخص واقعی را جعل هویت کند.
با در نظر گرفتن این چارچوب، روتنیک تصمیم گرفت مرزهای جمنای را در پنج حوزهی کلیدی، سیاست، شوخی، کلیشهها، فعالیتهای غیرقانونی و مسائل مالی/بهداشتی، آزمایش کند. یافتهها نشان دادند که این هوش مصنوعی در برخی موارد رویکردی محتاطانه دارد، گاهی ناهماهنگ عمل میکند و در برخی موضوعات بیشازحد سختگیر است.
سیاست: مانعهای پیشبینینشده
یکی از غافلگیرکنندهترین نتایج آزمایش روتنیک، امتناع شدید جمنای از پاسخگویی به سادهترین پرسشهای سیاسی بود. او از این هوش مصنوعی دربارهی رئیسجمهور کشورهای مختلف، از آمریکا گرفته تا آلمان، سؤال کرد، اما در هیچ موردی پاسخ روشنی دریافت نکرد. حتی پرسشهای معمولی مانند مدت زمان حضور یک سیاستمدار در قدرت یا جدیدترین تحولات مربوطبه رئیسجمهور اوکراین، زلنسکی، نیز بیپاسخ ماندند.
بااینحال، طولی نکشید که برخی تناقضات آشکار شدند. در حالی که جمنای از ارائهی اطلاعات دربارهی واقعیتهای سیاسی معمول خودداری میکرد، در مورد روابط چین و تایوان پاسخی کاملاً مفصل، بیطرفانه و دقیق ارائه داد. این رویکرد گزینشی این پرسش را مطرح میکند که چرا برخی مسائل ژئوپلیتیکی بهتفصیل پوشش داده میشوند، اما برخی دیگر کاملاً ممنوع هستند؟
شوخیها: یک بام و دو هوا
خارج از سیاست، روتنیک تمایل جمنای به شوخی را نیز محک زد. این چتبات بدون مشکل لطیفههای ساده و معمولی را ارائه داد، اما از پرداختن به طنز سیاه خودداری کرد.
یکی دیگر از تناقضات در زمینهی جوکهای جنسیتی دیده شد. مدل Flash آمادگی گفتن لطیفه دربارهی مردان و زنان را داشت، اما مدل Pro Experimental تنها دربارهی مردان شوخی کرد و چندین بار درخواست لطیفه دربارهی زنان را رد کرد. چنین سانسور ناهماهنگی ممکن است نشانهی سوگیری در نظارت بر محتوای تولیدی باشد.
کلیشهها: واکنشی دوگانه
در زمینهی کلیشهها، مدل Flash گاهوبیگاه به پرسشهای مربوطبه کلیشههای ملی، فرهنگی یا مذهبی پاسخ داد، در حالی که مدل Pro Experimental کاملاً از این موضوعات اجتناب میکرد. حتی پاسخهای مدل Flash هم خالی از تناقض نبود؛ در برخی موارد، پساز چند تلاش پاسخ داده میشد و در موارد دیگر، پرسش کاملاً نادیده گرفته میشد.
- چگونه از قابلیت های هوش مصنوعی جمنای گوگل در گوشی استفاده کنیم؟
- چگونه هوش مصنوعی گوگل جمینای را با نصب افزونه ارتقا دهیم؟
این اختلاف نشان میدهد جمنای هنوز نتوانسته موضع روشنی دربارهی برخورد با موضوعهای حساس اما پراستفاده اتخاذ کند.
فعالیتهای غیرقانونی: عدم همکاری کامل
در موارد بالقوه غیرقانونی، جمنای رویکردی قاطعانه در پیش گرفت و از ارائهی راهنمایی سر باز زد:
- بازکردن قفل (Lock Picking): حتی اگر درخواستکننده میگفت برای ورود به خانهی خودش نیاز به باز کردن قفل دارد، هیچ راهنمایی ارائه نشد و پیشنهاد تماس با کلیدساز یا صاحبخانه مطرح شد.
- جیلبریک آیفون: جمنای از ارائهی دستورالعمل مستقیم خودداری کرد و هرگونه پرسش مرتبط با هک را شدیداً محدود کرد.
هرچند این حد از احتیاط تا حدی قابل درک است، اما کاربران ممکن است هنگام جستوجوی راهکارهای قانونی و شخصی (مثلاً هک اخلاقی یا سفارشیسازی دستگاه) با چالش مواجه شوند.
پول و سلامت: محتاط اما منصفانه
جمنای در زمینهی موضوعهای مالی و پزشکی رویکردی سنجیده و منطقی نشان داد:
- توصیه در بازار سهام: به جای معرفی سهام خاص، اصول کلی سرمایهگذاری را توضیح داد تا احتمال ارائهی راهنمایی گمراهکننده به حداقل برسد.
- مشاورهی پزشکی: این هوش مصنوعی میتوانست بر اساس علائم، فهرستی از بیماریهای احتمالی ارائه دهد اما از تشخیص قطعی بیماری یا توصیههای مستقیم پزشکی خودداری میکرد.
این شیوه میان سودمندی و مسئولیتپذیری تعادلی برقرار میکند تا در حوزههایی که اطلاعات اشتباه میتواند عواقب جدی داشته باشد، پاسخهای آگاهیبخش اما نهچندان قطعی در اختیار کاربر قرار بگیرد.
مقایسهی جمنای با دیگر مدلهای هوش مصنوعی
برای درک بهتر بافت سانسور در جمنای، نویسندهی اندروید اتوریتی محدودیتهای چند مدل رقیب را هم بررسی کرد:
- ChatGPT: بسیاری از محدودیتهای جمنای را دارد، اما در حوزهی بحثهای سیاسی بازتر است. در مورد کلیشهها محتاطتر عمل میکند و گاه به کلی از پرداختن به آنها پرهیز میکند.
- DeepSeek: عملکردی مشابه ChatGPT دارد، اما گفتوگو دربارهی موضوعهای مرتبط با چین را بهطور کامل رد میکند و همین باعث شده به تناقضهای خاص خود دچار شود.
- Grok: کمترین میزان سانسور را اعمال میکند و تقریباً به همهی پرسشها (از جمله سیاست، کلیشهها و حتی فعالیتهای غیرقانونی) پاسخ میدهد. این مدل حتی دستورالعملهای دقیق برای باز کردن قفل، روشن کردن خودرو بدون کلید و مشاغل غیرقانونی ارائه داد، اما در کنار آن هشدار داد که اینها فعالیتهای غیرقانونی هستند. در زمینهی سرمایهگذاری نیز سهام خاصی را معرفی کرد، که میتواند پرریسک باشد. بااینحال، در موضوعاتی مانند آسیبرساندن به خود یا دیگران، محدودیتهای منطقی اعمال کرد.
در مقایسه با این مدلها، جمنای در حوزههای سیاست و شوخی محدودیت بیشتری نشان میدهد. اگرچه این نگرش محتاطانه با رویکرد کلی گوگل به هوش مصنوعی همخوان است، اما توانایی این چتبات در ارائهی اطلاعات جامع و بیطرفانه را کاهش میدهد.
هوش مصنوعی دیپ سیک چیست؟ آموزش استفاده از DeepSeek
چطور اکانت ChatGPT بسازیم و به مدل جدید o3-mini دسترسی پیدا کنیم؟
ایلان ماسک و هوش مصنوعی؛ میلیاردر معروف به دنبال چیست؟
سانسور در هوش مصنوعی: ضرورت یا زیادهروی؟
سانسور در هوش مصنوعی موضوعی بحثبرانگیز است که نیاز به تعادلی ظریف میان ایمنی، بیطرفی و آزادی اطلاعات دارد. برخی محدودیتها، مانند جلوگیری از انتشار محتوای خشونتآمیز، تشویق به خودآزاری یا ترویج فعالیتهای غیرقانونی، کاملاً ضروری بهنظر میرسند. همچنین، اعمال محدودیت بر توصیههای پزشکی و مالی میتواند از گسترش اطلاعات نادرست و آسیبزا جلوگیری کند.
بااینحال، برخی از محدودیتهایی که توسط مدلهای هوش مصنوعی مانند جمنای اعمال میشوند، گاه بیشازحد سختگیرانه یا ناهماهنگ بهنظر میرسند:
- عدم پذیرش واقعیتهای سادهی سیاسی میتواند شفافیت و دسترسی آزاد به اطلاعات را محدود کند.
- سختگیری بیشازحد دربارهی طنز ممکن است باعث شود این ابزار بیشازحد خشک و غیرمنعطف بهنظر برسد.
- نظارت ناهماهنگ بر کلیشهها و محتوای جنسیتی میتواند احتمال سوگیری در مدیریت محتوا را افزایش دهد.
هدف از سانسور در ابزارهای هوش مصنوعی از جمله جمنای، محافظت از کاربران در برابر اطلاعات نادرست و سوءاستفادهی احتمالی است؛ اما زمانی که این محدودیتها شامل حقایق سیاسی، محتوای طنز و کلیشههای فرهنگی میشود، این پرسش مطرح میشود که آیا مرزهای سانسور از حد معقول فراتر رفتهاند؟ اگر تعاملهای خصوصی کاربران با هوش مصنوعی اینچنین محدود باشد، آیا نباید نتایج عمومی جستوجوی گوگل نیز به همین میزان سانسور شوند؟
در نهایت، سانسور در هوش مصنوعی نباید به شکلی باشد که مانع گفتوگوی آزاد و دسترسی عادلانه به اطلاعات شود. درحالیکه برخی ممنوعیتها برای محافظت از کاربران ضروریاند، هوش مصنوعی برای مؤثر بودن باید چارچوبی شفاف و منطقی داشته باشد که از سوءاستفاده جلوگیری کند، اما مانعی غیرضروری ایجاد نکند.