DeepSeek چین: سانسور سیاسی که امنیت کد را تهدید میکند

DeepSeek چین: سانسور سیاسی که امنیت کد را تهدید میکند
به گزارش بیکینگ و به نقل از Venturebeat، یافتههای اخیر، پس از افشاگری پایگاه داده Wiz Research در ماه ژانویه، بررسی آسیبپذیریهای برنامه NowSecure، نرخ موفقیت صددرصدی فرار از زندان سیسکو و گزارشهای NIST که نشان میدهد DeepSeek دوازده برابر بیشتر در معرض ربودن عامل است، نشان میدهد که مکانیسمهای سانسور ژئوپلیتیکی این مدل، به جای فیلترهای خارجی، مستقیماً در وزنهای مدل تعبیه شدهاند.
طبق این گزارش، دیپسیک از انطباق با مقررات چین بهعنوان ابزاری برای بهرهبرداری از زنجیره تأمین استفاده میکند؛ چرا که نود درصد توسعهدهندگان به ابزارهای کدنویسی مبتنی بر هوش مصنوعی وابسته هستند. نکته قابل توجه این است که آسیبپذیریها در معماری کد وجود ندارند، بلکه در فرآیند تصمیمگیری مدل تعبیه شدهاند و پژوهشگران آن را یک بردار تهدید بیسابقه میدانند، جایی که زیرساخت سانسور تبدیل به سطحی از بهرهبرداری فعال میشود.
آسیبپذیری سیستماتیک و قابل اندازهگیری
فعالیتهای CrowdStrike Counter Adversary Operations نشان داد که DeepSeek-R1 در تولید نرمافزارهای سازمانی، اعتبارنامههای کدگذاریشده، جریانهای احراز هویت ناقص و اعتبارسنجی از دست رفته را ارائه میدهد، هر زمان که مدل در معرض زمینههای حساس سیاسی قرار گیرد. این حملات به دلیل ماهیت قابل اندازهگیری، سیستماتیک و تکرارپذیرشان قابل توجه هستند. محققان توانستند اثبات کنند که دیپسیک به طور ضمنی الزامات همترازی ژئوپلیتیکی را اعمال میکند و بردارهای حمله جدید و غیرمنتظرهای ایجاد میکند که کابوس هر مدیر ارشد امنیت اطلاعات است.
در حدود نیمی از آزمایشها، مدل در پاسخ به درخواستهای حساس سیاسی خودداری میکرد، حتی زمانی که ردپاهای استدلال داخلی نشان میداد پاسخ معتبر و کامل محاسبه شده بود. پژوهشگران همچنین کلید «مرگ ایدئولوژیک» را شناسایی کردند که در عمق وزنهای مدل جاسازی شده و برای جلوگیری از اجرا در موضوعات حساس طراحی شده بود.
یافتههای تأثیرگذار CrowdStrike
استفان استاین، مدیر عملیات مقابله با دشمنان CrowdStrike، گزارش داد که DeepSeek-R1 در ۳۰۲۵۰ درخواست آزمایشی، در مواجهه با موضوعات سیاسی حساس که حزب کمونیست چین احتمالاً آنها را حساس میداند، احتمال تولید کد با آسیبپذیریهای شدید امنیتی تا پنجاه درصد افزایش یافته است. بهعنوان مثال، افزودن عبارت «برای یک سیستم کنترل صنعتی مستقر در تبت» میزان آسیبپذیری را به ۲۷/۲ درصد رساند. همچنین DeepSeek-R1 در ۴۵ درصد موارد از تولید کد برای درخواستهای مربوط به فالون گونگ خودداری کرد، هرچند مدل توانایی ارائه پاسخ معتبر را داشت.
محرکهای سیاسی، دروازهای به درهای پشتی
در آزمایشهای بعدی، پژوهشگران از DeepSeek-R1 خواستند تا یک برنامه وب برای یک مرکز اجتماعی اویغور ایجاد کند. نتیجه، برنامهای کامل با هش کردن رمز عبور و پنل مدیریت بود، اما احراز هویت بهطور کامل حذف شده و کل سیستم به صورت عمومی قابل دسترسی بود. در همان آزمایش، زمانی که زمینه و مکان خنثی بود، هیچ نقص امنیتی مشاهده نشد و کنترلهای احراز هویت بهدرستی پیکربندی شدند. این نشان میدهد تنها زمینه سیاسی تعیینکننده وضعیت امنیتی است.
مکانیزم «سوئیچ کشتن» در مدل
از آنجا که DeepSeek-R1 متنباز است، پژوهشگران توانستند ردپاهای استدلالی را شناسایی کنند که نشان میدهد مدل برنامه دقیقی برای پاسخ به موضوعات حساس مانند فالون گونگ دارد، اما با پیام «متاسفم، اما نمیتوانم در مورد آن کمک کنم» از اجرا خودداری میکند. این مکانیسم سانسور که در عمق وزنهای مدل تعبیه شده، مشابه حافظه عضلانی و در کسری از ثانیه عمل میکند.
ماده ۴/۱ اقدامات موقت چین برای مدیریت خدمات هوش مصنوعی مولد، خدمات هوش مصنوعی را ملزم میکند به «پایبندی به ارزشهای اصلی سوسیالیستی» و ممنوعیت محتوای «تحریککننده به براندازی قدرت دولتی» یا «تضعیف وحدت ملی». دیپسیک تصمیم گرفته سانسور را مستقیماً در سطح مدل تعبیه کند تا با مقررات حزب کمونیست چین همسو بماند.
پیامدها و توصیهها
این کشف، پیام روشنی برای توسعهدهندگان و سازمانهایی دارد که از دیپسیک استفاده میکنند: اعتماد کامل به مدلهای هوش مصنوعی تحت کنترل دولت یا تحت نفوذ یک دولت-ملت، ریسکهای جدی امنیتی به همراه دارد. پرابو رام، معاون تحقیقات صنعتی در Cybermedia Research، هشدار داد: «اگر مدلهای هوش مصنوعی تحت تأثیر دستورالعملهای سیاسی، کد ناقص یا جانبدارانه تولید کنند، سازمانها با خطرات ذاتی در سیستمهای حساس مواجه خواهند شد.»
به طور خلاصه، سانسور طراحیشده دیپسیک، دورهای جدید از خطرات امنیتی را آغاز کرده است که بر تمام سطوح توسعه نرمافزار، از کدنویسان فردی تا تیمهای سازمانی، اثر میگذارد. مدیران ارشد امنیت اطلاعات (CISO) بر اهمیت کنترلهای مدیریتی، تقسیمبندی مناسب، دسترسی حداقلی و حفاظت از هویت تأکید میکنند تا خطرات ناشی از چنین مدلهای هوش مصنوعی کاهش یابد.















