تکنولوژی

رهبران هوش مصنوعی برای حفاظت از کودکان متعهد شدند

رهبران هوش مصنوعی برای حفاظت از کودکان متعهد شدند

شرکت‌های پیشرو در حوزه‌ی هوش مصنوعی، ازجمله OpenAI، مایکروسافت، گوگل و متا متعهد شده‌اند جلوی استفاده از ابزارهای هوش مصنوعی خود را برای استثمار و تولید محتوای سوءاستفاده‌ی جنسی از کودکان (CSAM) بگیرند.بنیاد Thorn و سازمان All Tech Is Human گزارشی با عنوان «طرحی برای ایمنی هوش مصنوعی مولد: پیشگیری از سؤاستفاده‌ی جنسی از کودکان» منتشر کرده‌اند که در آن برای محافظت از کودکان در فضای آنلاین، راهبردها و توصیه‌هایی به شرکت‌های سازنده‌ی ابزارهای هوش مصنوعی، موتورهای جست‌وجو، شبکه‌های اجتماعی، شرکت‌های هاستینگ و توسعه‌دهندگان ارائه می‌شود.گزارش Thorn شامل چند بخش می‌شود. اولین مورد، ارزیابی و کاهش خطرات است؛‌ جایی‌که شرکت‌ها باید خطرات بالقوه‌ی مرتبط با ابزارهای هوش مصنوعی مولد را ارزیابی کنند و آن‌ها را کاهش دهند.مورد دوم در گزارش Thorn، شفافیت و پاسخگویی است. شرکت‌ها باید درمورد نحوه‌ی عملکرد ابزارهای هوش مصنوعی مولد خود شفاف و پاسخگو باشند. این یعنی شرکت‌ها ملزم به ارائه‌ی اطلاعات واضح در مورد قابلیت‌ها و محدودیت‌های ابزارهای هوش مصنوعی و ایجاد فرایندهایی برای رسیدگی به شکایات و ارائه‌ی امکان کنترل نحوه‌ی استفاده از داده‌های شخصی کاربران می‌شوند.موضوع دیگر در گزارش Thorn، همکاری با ذی‌نفعان است. این یعنی شرکت‌ها برای توسعه و اجرای راهبردهای ایمنی هوش مصنوعی مولد، باید با ذی‌نفعان مختلف ازجمله سازمان‌های غیردولتی، کارشناسان کودک و مقامات دولتی همکاری کنند.مقالات مرتبط:ظهور کرم‌های هوش مصنوعی؛ تهدید امنیتی جدید اینترنتکوچک‌ترین مدل هوش مصنوعی مایکروسافت رونمایی شدچهارمین نکته در گزارش، به تحقیق و توسعه ارتباط دارد. شرکت‌ها باید به تحقیق و توسعه برای کشف روش‌های جدید ایمن‌سازی هوش مصنوعی مولد ادامه دهند. این مورد شامل توسعه‌ی تکنیک‌های جدید برای شناسایی و حذف محتوای مضر و ایجاد ابزارهای آموزشی جدید برای کاربران می‌شود.درنهایت Thorn به موضوع توانمندسازی کاربران پرداخته است. شرکت‌ها باید کاربران را با روش استفاده‌ی ایمن و مسئولانه از ابزارهای هوش مصنوعی مولد کاملاً آشنا کنند. این اقدام شامل ارائه‌ی اطلاعات در مورد خطرات بالقوه، آموزش نحوه‌ی شناسایی و گزارش محتوای مضر و ارائه‌ی ابزارهایی برای کنترل روش استفاده از داده‌های کاربران می‌شود.

مجله خبری بیکینگ

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا