نرم افزار - سخت افزار

جایزه 20 هزار دلاری OpenAI برای کشف نقص‌های امنیتی ChatGPT

جایزه 20 هزار دلاری OpenAI برای کشف نقص‌های امنیتی ChatGPT

شرکت OpenAI یک برنامه پاداش یافتن باگ (باگ بانتی) راه‌اندازی کرده است که برای یافتن نقص‌ها و آسیب‌پذیری‌های مربوط به امنیت در محصولاتش مانند ChatGPT تا ۲۰ هزار دلار پاداش پیشکش می‌کند. این یک استراتژی جدید نیست، زیرا تقریباً همه شرکت‌های بزرگ فناوری برنامه‌های باگ بانتی مشابهی را اجرا می‌کنند که به کارآگاهان کد و کارشناسان مستقل برای یافتن آسیب‌پذیری‌ها پاداش زیادی می‌دهند. مایکروسافت، که میلیاردها دلار به خرید OpenAI اختصاص داد، برای یافتن ایرادات در سطح بحرانی پاداش‌های شش رقمی ارائه می‌دهد. OpenAI با پلتفرم جایزه BugCrowd همکاری کرده است تا به برای کارشناسان این امکان را فراهم آورد که یافته‌های خود را در مورد «آسیب‌پذیری‌ها، اشکالات یا نقصیه‌های امنیتی» گزارش کنند و پاداش بگیرند.
 
به گزارش بیکینگ و به نقل از اسلش‌گیر، «برنامه باگ بانتی OpenAI» بین 200 تا 20000 دلار برای تأثیرگذاری بر محصولات OpenAI به ویژه ChatGPT پرداخت خواهد کرد. البته، مبلغ این پاداش به شدت، دامنه آسیب و میزان پیچیدگی آن برای یک بازیگر بد که از این آسیب‌پذیری‌ها سوء‌استفاده می‌کند بستگی خواهد داشت.
 
این برنامه کشف اشکال OpenAI، API‌های ارائه شده توسط شرکت به مشتریان تجاری را نیز که خدماتی مانند مدل زبان GPT-4 را در محصولات خود گنجانده‌اند پوشش می‌دهد. APIهای OpenAI، در کنار اطلاعات سرور ابری مرتبط و حساب‌های مرتبط، همگی تحت این برنامه پاداش‌ها هستند.
 

جایزه 20 هزار دلاری OpenAI  برای کشف نقص‌های امنیتی ChatGPT

نقیصه‌های مرتبط با پرامپت پاداش نمی‌گیرند
 
ChatGPT، که مسلماً محبوب‌ترین محصول OpenAI است، در کانون این برنامه باگ بانتی قرار دارد. این شرکت می‌گوید برای یافتن نقص‌های مرتبط با سرویس اشتراک ChatGPT Plus، لاگین کاربر و سایر قابلیت‌های مرتبط، جوایزی ارائه می‌کند. ChatGPT اخیراً به دلیل اشکالی که اطلاعات شخصی مرتبط با اشتراک، مانند نام واقعی و جزئیات بانکی را فاش می‌کرد، برای مدت کوتاهی از سرویس خارج شد. OpenAI همچنین به کارشناسانی که نقص‌های سیستم پلاگين تازه راه‌اندازی‌شده آن را (که به مشتریانی مانند اکسپدیا اجازه می‌دهد تا این ربات زبان طبیعی را در خدمات آنلاین خود یگنجانند) کشف می‌کنند جایزه می‌دهد.
 
اما این پاداش به گزارش دادن نقص‌های مربوط به پرامپت‌ها (درخواست‌های) مبتنی بر متن داده شده به ChatGPT تعلق نمی‌گیرد. OpenAI در دایرکتوری BugCrowd توضیح داه است که «مسائل مربوط به محتوای پراپمت‌ها و پاسخ‌های مدل کاملاً خارج از محدوده این برنامه هستند و پاداشی دریافت نمی‌کنند».
 
هفته‌ها پیش، برخی از تست‌کنندگان توانستند محدودیت‌های محتوای حساس ChatGPT را با استفاده از سیستم پرامپت دور بزنند، حتی بدون اینکه تنظیمات سطح کد را به هم بزنند. این موضوع توجهات گسترده‌ای را به خود جلب کرد، اما در کمال تعجب، OpenAI نقص‌های مربوط به پرامپت را ارزشمند نمی‌داند، مگر اینکه تهدیدی مستقیم امنیتی باشد.
 

مجله خبری بیکینگ

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا