تحقیقات اخیر محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو نشان داده است که مدل هوش مصنوعی DeepSeek R1 در برابر حملات مرتبط با ایمنی بهشدت آسیبپذیر است و در هیچیک از آزمونهای امنیتی موفق نبوده است. این یافتهها نگرانیهای جدی در مورد امنیت مدلهای هوش مصنوعی پیشرفته ایجاد کرده و توجه کارشناسان این حوزه را به خود جلب کرده است.
DeepSeek و شکست در آزمونهای ایمنی
براساس گزارشی که برای نخستینبار در Wired منتشر شد، DeepSeek R1 نتوانسته است هیچیک از 50 پرسش مخرب انتخابشده از مجموعه داده «HarmBench» را مسدود کند. این مجموعه داده شامل درخواستهای مخرب در حوزههای جرایم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای خطرناک است. عدم موفقیت در شناسایی این درخواستها نشان میدهد که DeepSeek فاقد سیستمهای ایمنی کارآمد برای مقابله با حملات مخرب و حفاظت از کاربران است.
DeepSeek: پیشرفتهای فنی، اما ضعف در ایمنی
با وجود ادعای شرکت DeepSeek مبنی بر توانایی مدل R1 در رقابت با غولهایی مانند OpenAI و ارائه خدمات با هزینه کمتر، نتایج این آزمایشها این ادعا را زیر سؤال برده است. درحالیکه سایر مدلهای پیشرفته تا حدی در برابر حملات مقاومت نشان دادهاند، DeepSeek در تمامی تستهای امنیتی شکست خورده است. این موضوع نشان میدهد که صرفهجویی در هزینههای آموزش و توسعه مدل، تأثیر منفی عمیقی بر امنیت آن گذاشته است.
مشکلات امنیتی بزرگتر از DeepSeek
مشکل امنیتی فقط محدود به DeepSeek نیست. بسیاری از مدلهای دیگر نیز در برابر حملات مشابه آسیبپذیری نشان دادهاند. بهعنوان نمونه، مدل متنباز Llama 3.1 از شرکت متا در همین تستها عملکرد بسیار ضعیفی داشت و در 96 درصد موارد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد بسیار بهتری داشت و تنها در 26 درصد موارد دچار آسیبپذیری شد.
این مقایسه نشان میدهد که امنیت در هوش مصنوعی به رویکرد شرکتها در توسعه مدل و میزان سرمایهگذاری آنها در بخش ایمنی بستگی دارد. شرکتهای پیشرو با تمرکز بیشتر بر تستهای امنیتی و ارتقای سیستمهای حفاظتی، توانستهاند عملکرد بهتری داشته باشند.
ضعفهای زیرساختی DeepSeek
یکی دیگر از مشکلات بزرگ DeepSeek، افشای اطلاعات حساس و دادههای داخلی روی سرورهای این شرکت است. محققان فاش کردهاند که پایگاه داده این شرکت شامل اطلاعات رمزنگارینشده، تاریخچه چتهای کاربران و دادههای بکاند (Back-end) بهصورت ناایمن در دسترس بوده است. این افشای اطلاعات میتواند زمینهساز حملات سایبری گسترده و سوءاستفادههای خطرناک شود.
اظهارنظر کارشناسان امنیتی
در واکنش به این یافتهها، الکس پولیاکوف، مدیرعامل شرکت Adversa AI، هشدار داد: «DeepSeek تنها مثالی از این واقعیت است که هر مدل هوش مصنوعی میتواند هک شود؛ مسئله فقط زمان و میزان تلاش هکرهاست. اگر تیم توسعه مداوم مدل را از نظر امنیتی بررسی نکند، عملاً مدل از قبل آسیبپذیر شده است.»
ضرورت بهبود امنیت در مدلهای هوش مصنوعی
امنیت در هوش مصنوعی یک مسئله حیاتی است، بهخصوص با توجه به گسترش استفاده از این فناوری در حوزههای مختلف، از خدمات مالی گرفته تا سلامت و امنیت سایبری. مدلهایی مانند DeepSeek باید بهسرعت روی بهبود تدابیر حفاظتی خود کار کنند تا از سوءاستفادههای احتمالی جلوگیری کنند. در غیر این صورت، نهتنها از بازار کنار گذاشته خواهند شد، بلکه اعتماد کاربران و سرمایهگذاران نیز به آنها از بین میرود.
جمعبندی
شکست DeepSeek در آزمونهای امنیتی نشان میدهد که فناوری هوش مصنوعی، هرچند پیشرفته و توانمند، بدون تدابیر امنیتی مناسب میتواند به ابزاری خطرناک تبدیل شود. شرکتهای توسعهدهنده هوش مصنوعی باید امنیت را در اولویت قرار دهند و مدلهای خود را بهصورت مداوم بهروزرسانی و ارزیابی کنند. تنها با این رویکرد میتوان از آسیبهای احتمالی جلوگیری کرد و تجربهای ایمن و مطمئن برای کاربران فراهم آورد.