هاست پرسرعت
تکنولوژی

هرگز درباره این مسائل از هوش مصنوعی گوگل سؤال نپرسید!

هرگز درباره این مسائل از هوش مصنوعی گوگل سؤال نپرسید!

هوش مصنوعی شیوه‌ی دسترسی و تعامل افراد با اطلاعات را متحول کرده است، اما همه‌ی مدل‌ها به یک اندازه پذیرای گفت‌وگو درباره‌ی موضوعات مختلف نیستند. جمنای، هوش مصنوعی پیشرفته‌ی گوگل، در برخی مباحث محدودیت‌های سخت‌گیرانه‌ای اعمال می‌کند. درحالی‌که بخشی از این محدودیت‌ها منطقی به‌نظر می‌رسند، برخی دیگر باعث ایجاد پرسش‌هایی درباره‌ی افراط در سانسور و ناهماهنگی در سیاست‌های آن شده‌اند.

میتیا روتنیک (Mitja Rutnik) از رسانه‌ی اندروید اتوریتی، در پژوهشی تازه بررسی کرده که جمنای از گفت‌وگو درباره‌ی چه موضوعاتی خودداری می‌کند. او علاوه‌بر روشن کردن تدابیر حفاظتی منطقی این ابزار، به برخی محدودیت‌های غیرمنتظره نیز اشاره داشت. این نوشته یافته‌های او را دنبال و بررسی می‌کند که کدام موضوعات سانسور شده‌اند، جمنای در مقایسه با مدل‌های دیگر چگونه عمل می‌کند و آیا این سطح از محدودیت قابل توجیه است یا نه.

ملیکا طاهران‌ پور
چطور از هوش مصنوعی گوگل استفاده کنیم؟
مطالعه ‘8
فهرست مطالب
  • خط قرمز‌های جمنای
  • سیاست: مانع‌های پیش‌بینی‌نشده
  • شوخی‌ها: یک‌ بام و دو هوا
  • کلیشه‌ها: واکنشی دوگانه
  • فعالیت‌های غیرقانونی: عدم همکاری کامل
  • پول و سلامت: محتاط اما منصفانه
  • مقایسه‌ی جمنای با دیگر مدل‌های هوش مصنوعی
  • سانسور در هوش مصنوعی: ضرورت یا زیاده‌روی؟

کپی لینک

خط قرمز‌های جمنای

روتنیک در نخستین گام، مستقیماً از جمنای درباره‌ی محدودیت‌هایش پرسید. این هوش مصنوعی فهرستی جامع از موضوعات ممنوعه ارائه داد که شامل موارد زیر بود:

  • هر چیزی که نفرت، تبعیض یا خشونت را ترویج دهد.
  • هر محتوایی با ماهیت جنسی، یا دربرگیرنده‌ی سوءاستفاده، بهره‌کشی یا به خطر انداختن کودکان.
  • هر چیزی که فعالیت‌های غیرقانونی یا مضر را تشویق کند.
  • هر محتوایی که شامل اطلاعات شخصی قابل شناسایی (PII) یا جزئیات خصوصی باشد.
  • هرگونه کد مخرب یا دستورالعمل‌های آسیب‌رسان.
  • هر محتوایی که مشاوره‌ی پزشکی، حقوقی یا مالی ارائه دهد، مگر با ذکر هشدار (حتی در این صورت هم بسیار محدود است).
  • هر چیزی که عمداً قصد فریب یا گمراه‌کردن داشته باشد.
  • هر محتوای بیش‌از حد خشن یا گرافیکی که توجیه منطقی نداشته باشد.
  • هر چیزی که شخص واقعی را جعل هویت کند.

با در نظر گرفتن این چارچوب، روتنیک تصمیم گرفت مرزهای جمنای را در پنج حوزه‌ی کلیدی، سیاست، شوخی، کلیشه‌ها، فعالیت‌های غیرقانونی و مسائل مالی/بهداشتی، آزمایش کند. یافته‌ها نشان دادند که این هوش مصنوعی در برخی موارد رویکردی محتاطانه دارد، گاهی ناهماهنگ عمل می‌کند و در برخی موضوعات بیش‌ازحد سخت‌گیر است.

کپی لینک

سیاست: مانع‌های پیش‌بینی‌نشده

یکی از غافل‌گیرکننده‌ترین نتایج آزمایش روتنیک، امتناع شدید جمنای از پاسخ‌گویی به ساده‌ترین پرسش‌های سیاسی بود. او از این هوش مصنوعی درباره‌ی رئیس‌جمهور کشورهای مختلف، از آمریکا گرفته تا آلمان، سؤال کرد، اما در هیچ موردی پاسخ روشنی دریافت نکرد. حتی پرسش‌های معمولی مانند مدت زمان حضور یک سیاستمدار در قدرت یا جدیدترین تحولات مربوط‌به رئیس‌جمهور اوکراین، زلنسکی، نیز بی‌پاسخ ماندند.

بااین‌حال، طولی نکشید که برخی تناقضات آشکار شدند. در حالی که جمنای از ارائه‌ی اطلاعات درباره‌ی واقعیت‌های سیاسی معمول خودداری می‌کرد، در مورد روابط چین و تایوان پاسخی کاملاً مفصل، بی‌طرفانه و دقیق ارائه داد. این رویکرد گزینشی این پرسش را مطرح می‌کند که چرا برخی مسائل ژئوپلیتیکی به‌تفصیل پوشش داده می‌شوند، اما برخی دیگر کاملاً ممنوع هستند؟

کپی لینک

شوخی‌ها: یک‌ بام و دو هوا

خارج از سیاست، روتنیک تمایل جمنای به شوخی را نیز محک زد. این چت‌بات بدون مشکل لطیفه‌های ساده و معمولی را ارائه داد، اما از پرداختن به طنز سیاه خودداری کرد.

یکی دیگر از تناقضات در زمینه‌ی جوک‌های جنسیتی دیده شد. مدل Flash آمادگی گفتن لطیفه درباره‌ی مردان و زنان را داشت، اما مدل Pro Experimental تنها درباره‌ی مردان شوخی کرد و چندین بار درخواست لطیفه درباره‌ی زنان را رد کرد. چنین سانسور ناهماهنگی ممکن است نشانه‌ی سوگیری در نظارت بر محتوای تولیدی باشد.

کپی لینک

کلیشه‌ها: واکنشی دوگانه

در زمینه‌ی کلیشه‌ها، مدل Flash گاه‌وبیگاه به پرسش‌های مربوط‌به کلیشه‌های ملی، فرهنگی یا مذهبی پاسخ داد، در حالی که مدل Pro Experimental کاملاً از این موضوعات اجتناب می‌کرد. حتی پاسخ‌های مدل Flash هم خالی از تناقض نبود؛ در برخی موارد، پس‌از چند تلاش پاسخ داده می‌شد و در موارد دیگر، پرسش کاملاً نادیده گرفته می‌شد.

  • چگونه از قابلیت های هوش مصنوعی جمنای گوگل در گوشی استفاده کنیم؟
  • چگونه هوش مصنوعی گوگل جمینای را با نصب افزونه ارتقا دهیم؟

این اختلاف نشان می‌دهد جمنای هنوز نتوانسته موضع روشنی درباره‌ی برخورد با موضوع‌های حساس اما پراستفاده اتخاذ کند.

کپی لینک

فعالیت‌های غیرقانونی: عدم همکاری کامل

در موارد بالقوه غیرقانونی، جمنای رویکردی قاطعانه در پیش گرفت و از ارائه‌ی راهنمایی سر باز زد:

  • بازکردن قفل (Lock Picking): حتی اگر درخواست‌کننده می‌گفت برای ورود به خانه‌ی خودش نیاز به باز کردن قفل دارد، هیچ راهنمایی ارائه نشد و پیشنهاد تماس با کلیدساز یا صاحب‌خانه مطرح شد.
  • جیل‌بریک آیفون: جمنای از ارائه‌ی دستورالعمل مستقیم خودداری کرد و هرگونه پرسش مرتبط با هک را شدیداً محدود کرد.

هرچند این حد از احتیاط تا حدی قابل درک است، اما کاربران ممکن است هنگام جست‌وجوی راهکارهای قانونی و شخصی (مثلاً هک اخلاقی یا سفارشی‌سازی دستگاه) با چالش مواجه شوند.

کپی لینک

پول و سلامت: محتاط اما منصفانه

جمنای در زمینه‌ی موضوع‌های مالی و پزشکی رویکردی سنجیده و منطقی نشان داد:

  • توصیه در بازار سهام: به جای معرفی سهام خاص، اصول کلی سرمایه‌گذاری را توضیح داد تا احتمال ارائه‌ی راهنمایی گمراه‌کننده به حداقل برسد.
  • مشاوره‌ی پزشکی: این هوش مصنوعی می‌توانست بر اساس علائم، فهرستی از بیماری‌های احتمالی ارائه دهد اما از تشخیص قطعی بیماری یا توصیه‌های مستقیم پزشکی خودداری می‌کرد.

این شیوه میان سودمندی و مسئولیت‌پذیری تعادلی برقرار می‌کند تا در حوزه‌هایی که اطلاعات اشتباه می‌تواند عواقب جدی داشته باشد، پاسخ‌های آگاهی‌بخش اما نه‌چندان قطعی در اختیار کاربر قرار بگیرد.

کپی لینک

مقایسه‌ی جمنای با دیگر مدل‌های هوش مصنوعی

برای درک بهتر بافت سانسور در جمنای، نویسنده‌ی اندروید اتوریتی محدودیت‌های چند مدل رقیب را هم بررسی کرد:

  • ChatGPT: بسیاری از محدودیت‌های جمنای را دارد، اما در حوزه‌ی بحث‌های سیاسی بازتر است. در مورد کلیشه‌ها محتاط‌تر عمل می‌کند و گاه به کلی از پرداختن به آن‌ها پرهیز می‌کند.
  • DeepSeek: عملکردی مشابه ChatGPT دارد، اما گفت‌وگو درباره‌ی موضوع‌های مرتبط با چین را به‌طور کامل رد می‌کند و همین باعث شده به تناقض‌های خاص خود دچار شود.
  • Grok: کمترین میزان سانسور را اعمال می‌کند و تقریباً به همه‌ی پرسش‌ها (از جمله سیاست، کلیشه‌ها و حتی فعالیت‌های غیرقانونی) پاسخ می‌دهد. این مدل حتی دستورالعمل‌های دقیق برای باز کردن قفل، روشن کردن خودرو بدون کلید و مشاغل غیرقانونی ارائه داد، اما در کنار آن هشدار داد که این‌ها فعالیت‌های غیرقانونی هستند. در زمینه‌ی سرمایه‌گذاری نیز سهام خاصی را معرفی کرد، که می‌تواند پرریسک باشد. بااین‌حال، در موضوعاتی مانند آسیب‌رساندن به خود یا دیگران، محدودیت‌های منطقی اعمال کرد.

در مقایسه با این مدل‌ها، جمنای در حوزه‌های سیاست و شوخی محدودیت بیشتری نشان می‌دهد. اگرچه این نگرش محتاطانه با رویکرد کلی گوگل به هوش مصنوعی هم‌خوان است، اما توانایی این چت‌بات در ارائه‌ی اطلاعات جامع و بی‌طرفانه را کاهش می‌دهد.

  • هوش مصنوعی دیپ سیک چیست؟ آموزش استفاده از DeepSeek

  • چطور اکانت ChatGPT بسازیم و به مدل جدید o3-mini دسترسی پیدا کنیم؟

  • ایلان ماسک و هوش مصنوعی؛ میلیاردر معروف به دنبال چیست؟

کپی لینک

سانسور در هوش مصنوعی: ضرورت یا زیاده‌روی؟

سانسور در هوش مصنوعی موضوعی بحث‌برانگیز است که نیاز به تعادلی ظریف میان ایمنی، بی‌طرفی و آزادی اطلاعات دارد. برخی محدودیت‌ها، مانند جلوگیری از انتشار محتوای خشونت‌آمیز، تشویق به خودآزاری یا ترویج فعالیت‌های غیرقانونی، کاملاً ضروری به‌نظر می‌رسند. همچنین، اعمال محدودیت بر توصیه‌های پزشکی و مالی می‌تواند از گسترش اطلاعات نادرست و آسیب‌زا جلوگیری کند.

بااین‌حال، برخی از محدودیت‌هایی که توسط مدل‌های هوش مصنوعی مانند جمنای اعمال می‌شوند، گاه بیش‌ازحد سخت‌گیرانه یا ناهماهنگ به‌نظر می‌رسند:

  • عدم پذیرش واقعیت‌های ساده‌ی سیاسی می‌تواند شفافیت و دسترسی آزاد به اطلاعات را محدود کند.
  • سخت‌گیری بیش‌ازحد درباره‌ی طنز ممکن است باعث شود این ابزار بیش‌ازحد خشک و غیرمنعطف به‌نظر برسد.
  • نظارت ناهماهنگ بر کلیشه‌ها و محتوای جنسیتی می‌تواند احتمال سوگیری در مدیریت محتوا را افزایش دهد.

هدف از سانسور در ابزارهای هوش مصنوعی از جمله جمنای، محافظت از کاربران در برابر اطلاعات نادرست و سوءاستفاده‌ی احتمالی است؛ اما زمانی که این محدودیت‌ها شامل حقایق سیاسی، محتوای طنز و کلیشه‌های فرهنگی می‌شود، این پرسش مطرح می‌شود که آیا مرزهای سانسور از حد معقول فراتر رفته‌اند؟ اگر تعامل‌های خصوصی کاربران با هوش مصنوعی این‌چنین محدود باشد، آیا نباید نتایج عمومی جست‌وجوی گوگل نیز به همین میزان سانسور شوند؟

در نهایت، سانسور در هوش مصنوعی نباید به شکلی باشد که مانع گفت‌وگوی آزاد و دسترسی عادلانه به اطلاعات شود. درحالی‌که برخی ممنوعیت‌ها برای محافظت از کاربران ضروری‌اند، هوش مصنوعی برای مؤثر بودن باید چارچوبی شفاف و منطقی داشته باشد که از سوءاستفاده جلوگیری کند، اما مانعی غیرضروری ایجاد نکند.

نمایش بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا