علم و دانش

پنتاگون به دنبال باز کردن جعبه سیاه هوش مصنوعی!

پنتاگون به دنبال باز کردن جعبه سیاه هوش مصنوعی!

یک مقام ارشد وزارت دفاع آمریکا اعلام کرد این نهاد می‌خواهد قبل از استفاده کامل از هوش مصنوعی، اطلاعات بیشتری درباره این فناوری کسب کند و خواستار شفافیت بیشتر توسعه دهندگان در این باره شد.

کِرگ مارتل، مدیر ارشد هوش مصنوعی و دیجیتال پنتاگون، خواستار ارائه اطلاعات بیشتر از سوی شرکت‌های هوش مصنوعی درباره نحوه ساخت نرم افزار هوش مصنوعی است تا این نهاد بتواند با طیب خاطر و اطمینان، از این فناوری استفاده کند.

  • بیشتر بخوانید:

  • در درون جت شخصی ۶۱ میلیون دلاری مایکل جردن چه خبر است؟/ عکس

  • «روشن»؛ پروژه بن‌سلمان برای خانه‌دار کردن اعراب/ عکس

نرم افزار هوش مصنوعی روی مدل‌های زبانی بزرگ متکی است که از مجموعه داده عظیمی برای کارکرد ابزارهای مانند چت بات‌ها و تولیدکنندگان استفاده می‌کنند. این سرویس‌ها معمولا بدون نشان دادن کارهای داخلی خود، در یک به اصطلاح جعبه سیاه، عرضه می‌شوند. در نتیجه، برای کاربران دشوار است که درک کنند چطور این فناوری، به تصمیمات رسیده یا چه چیزی باعث بهتر یا بدتر شدن آن به مرور زمان می‌شود.

مارتل گفت: ما فقط نتیجه نهایی مدل‌سازی را دریافت می‌کنیم و این کافی نیست. پنتاگون هیچ ایده‌ای ندارد که این مدل‌ها چطور ساخته شده اند یا از چه داده‌هایی استفاده می‌کنند. همچنین شرکت‌ها توضیح نمی‌دهند سیستم‌هایشان چه خطراتی ممکن است ایجاد کنند.

وی اظهار کرد: آن‌ها می‌گویند بفرمایید. ما نمی‌گوییم آن را چطور ساختیم. به شما نمی‌گوییم در چه چیزی خوب یا بد است. نمی‌گوییم آیا جانبدارانه است یا خیر.

این مقام وزارت دفاع آمریکا، چنین مدل‌هایی را معادل «فناوری بیگانه یافت شده» برای وزارت دفاع توصیف کرد. وی همچنین نگران است که فقط عده‌ای از مردم پول کافی برای ساختن مدل‌های زبانی بزرگ دارند. مارتل هیچ شرکتی را با نام مشخص نکرد، اما مایکروسافت، آلفابت، گوگل و آمازون از جمله شرکت‌هایی هستند که به همراه استارتاپ‌های OpenAI و آنتروپیک سرگرم توسعه مدل‌های زبانی بزرگ برای بازار تجاری هستند.

مارتل از صنعت هوش مصنوعی و دانشگاهیان دعوت کرد در فوریه به واشنگتن رفته و به نگرانی‌های مربوط بپردازند. هدف سمپوزیوم پنتاگون در زمینه داده دفاعی و هوش مصنوعی، این است که مشخص کند مدل‌های زبانی بزرگ، برای انجام چه کارهایی می‌توانند مناسب باشند.

تیم مارتل که یک گروه ویژه را مامور ارزیابی مدل‌های زبانی بزرگ کرده است، تاکنون ۲۰۰ کاربرد احتمالی برای آن‌ها در داخل وزارت دفاع یافته است.

بر اساس گزارش بلومبرگ، مارتل گفت ما نمی‌خواهیم مدل‌های زبانی بزرگ را متوقف کنیم. می‌خواهیم استفاده از آنها، مزایا و خطراتی که دارند و نحوه خنثی سازی آن‌ها را درک کنیم.

۲۲۷۲۲۷

مجله خبری بیکینگ

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا