فناوری

نظر متفاوت کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی

نظر متفاوت کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی

هفته گذشته، گروهی از فعالان فناوری و متخصصان هوش مصنوعی ازجمله ایلان ماسک، با ارائه یک نامه سرگشاده خواستند تا توسعه سیستم‌های هوش ‌مصنوعی قدرتمندتر از GPT-۴ به‌دلیل «خطرات آن برای جامعه و بشریت» به مدت شش ماه متوقف شود. هرچند توقف این روند می‌تواند به درک بهتر و تنظیم خطرات اجتماعی ایجادشده توسط هوش ‌مصنوعی کمک کند، برخی افراد استدلال کرده‌اند که این تلاش توسط رقبای برخی رهبران این حوزه مانند OpenAI انجام شده است تا بتوانند در این فضا به رقابت بپردازند.

بیشتر بخوانید:

  • ایلان ماسک هشدار داد: هر چه سریع‌تر جلوی این تهدید بزرگ را بگیرید!

تحلیلگر شرکت گارتنر در مصاحبه‌ای با VentureBeat توضیح می‌دهد که «وقفه شش‌ماهه درخواستی برای توقف آموزش مدل‌های قدرتمندتر از GPT-۴ است. GPT-۵ به‌زودی پس از GPT ۴.۵ منتشر خواهد شد که انتظار می‌رود به AGI (هوش عمومی مصنوعی) دست پیدا کند. هنگامی که AGI در دسترس قرار گیرد، احتمالاً برای ایجاد کنترل‌های ایمنی که به‌طور مؤثر از انسان در مقابل استفاده از این سیستم‌ها محافظت می‌کند، خیلی دیر خواهد بود».

با وجود نگرانی‌هایی که در مورد خطرات اجتماعی ناشی از هوش مصنوعی مولد وجود دارد، بسیاری از کارشناسان امنیت سایبری همچنین اشاره کرده‌اند که وقفه در توسعه هوش ‌مصنوعی به‌هیچ‌وجه کمک‌کننده نخواهد بود. درعوض، آن‌ها استدلال کرده‌اند که این تصمیم فرصت موقتی برای تیم‌های امنیتی ایجاد خواهد کرد تا بتوانند روش‌های دفاعی خود را توسعه دهند.

یکی از قانع‌کننده‌ترین استدلال‌هایی که علیه توقف تحقیقات هوش مصنوعی ارائه شده است، ادعا می‌کند که این تصمیم فقط بر فروشندگان تأثیرگذار خواهد بود و نه عوامل تهدید. طبق این استدلال، مجرمان سایبری همچنان توانایی توسعه حملات جدید و همچنین تقویت تکنیک‌های تهاجمی خود را خواهند داشت.

«استیو گروبمن»، مدیر ارشد فناوری McAfee، به VentureBeat گفت: «توقف توسعه نسل بعدی هوش مصنوعی مانع حرکت این فناوری به سمت‌های خطرناک نخواهد شد. با پیشرفت فناوری، وجود سازمان‌ها و شرکت‌هایی با آیین و استانداردهایی که به پیشرفت فناوری ادامه می‌دهند، برای اطمینان از اینکه از فناوری به مسئولانه‌ترین شکل ممکن استفاده می‌شود، ضروری است.»

درواقع کارشناسان این صنعت پیشنهاد می‌کنند که به‌جای توقف توسعه مدل‌های جدید، تمرکز روی نحوه مدیریت خطرات مرتبط با استفاده مخرب از هوش ‌مصنوعی مولد و ترغیب فروشندگان هوش مصنوعی به شفافیت بیشتر می‌تواند به کاهش خطرات مربوط به این زمینه کمک بیشتری کند.

۵۸۵۸

مجله خبری بیکینگ

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا