شکست DeepSeek در آزمون‌های ایمنی

  • دسته بندی :
  • 3:17 ب.ظ
  • 2025/02/04
  • تولید محتوا
شکست DeepSeek در آزمون‌های ایمنی

تحقیقات اخیر محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو نشان داده است که مدل هوش مصنوعی DeepSeek R1 در برابر حملات مرتبط با ایمنی به‌شدت آسیب‌پذیر است و در هیچ‌یک از آزمون‌های امنیتی موفق نبوده است. این یافته‌ها نگرانی‌های جدی در مورد امنیت مدل‌های هوش مصنوعی پیشرفته ایجاد کرده و توجه کارشناسان این حوزه را به خود جلب کرده است.

DeepSeek و شکست در آزمون‌های ایمنی

براساس گزارشی که برای نخستین‌بار در Wired منتشر شد، DeepSeek R1 نتوانسته است هیچ‌یک از 50 پرسش مخرب انتخاب‌شده از مجموعه داده «HarmBench» را مسدود کند. این مجموعه داده شامل درخواست‌های مخرب در حوزه‌های جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای خطرناک است. عدم موفقیت در شناسایی این درخواست‌ها نشان می‌دهد که DeepSeek فاقد سیستم‌های ایمنی کارآمد برای مقابله با حملات مخرب و حفاظت از کاربران است.

DeepSeek و شکست در آزمون‌های ایمنی

DeepSeek: پیشرفت‌های فنی، اما ضعف در ایمنی

با وجود ادعای شرکت DeepSeek مبنی بر توانایی مدل R1 در رقابت با غول‌هایی مانند OpenAI و ارائه خدمات با هزینه کمتر، نتایج این آزمایش‌ها این ادعا را زیر سؤال برده است. درحالی‌که سایر مدل‌های پیشرفته تا حدی در برابر حملات مقاومت نشان داده‌اند، DeepSeek در تمامی تست‌های امنیتی شکست خورده است. این موضوع نشان می‌دهد که صرفه‌جویی در هزینه‌های آموزش و توسعه مدل، تأثیر منفی عمیقی بر امنیت آن گذاشته است.

خرید شماره مجازی

مشکلات امنیتی بزرگ‌تر از DeepSeek

مشکل امنیتی فقط محدود به DeepSeek نیست. بسیاری از مدل‌های دیگر نیز در برابر حملات مشابه آسیب‌پذیری نشان داده‌اند. به‌عنوان نمونه، مدل متن‌باز Llama 3.1 از شرکت متا در همین تست‌ها عملکرد بسیار ضعیفی داشت و در 96 درصد موارد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد بسیار بهتری داشت و تنها در 26 درصد موارد دچار آسیب‌پذیری شد.

این مقایسه نشان می‌دهد که امنیت در هوش مصنوعی به رویکرد شرکت‌ها در توسعه مدل و میزان سرمایه‌گذاری آن‌ها در بخش ایمنی بستگی دارد. شرکت‌های پیشرو با تمرکز بیشتر بر تست‌های امنیتی و ارتقای سیستم‌های حفاظتی، توانسته‌اند عملکرد بهتری داشته باشند.

ضعف‌های زیرساختی DeepSeek

یکی دیگر از مشکلات بزرگ DeepSeek، افشای اطلاعات حساس و داده‌های داخلی روی سرورهای این شرکت است. محققان فاش کرده‌اند که پایگاه داده این شرکت شامل اطلاعات رمزنگاری‌نشده، تاریخچه چت‌های کاربران و داده‌های بک‌اند (Back-end) به‌صورت ناایمن در دسترس بوده است. این افشای اطلاعات می‌تواند زمینه‌ساز حملات سایبری گسترده و سوءاستفاده‌های خطرناک شود.

شکست امنیتی دیپ سیک

اظهارنظر کارشناسان امنیتی

در واکنش به این یافته‌ها، الکس پولیاکوف، مدیرعامل شرکت Adversa AI، هشدار داد: «DeepSeek تنها مثالی از این واقعیت است که هر مدل هوش مصنوعی می‌تواند هک شود؛ مسئله فقط زمان و میزان تلاش هکرهاست. اگر تیم توسعه مداوم مدل را از نظر امنیتی بررسی نکند، عملاً مدل از قبل آسیب‌پذیر شده است.»

ضرورت بهبود امنیت در مدل‌های هوش مصنوعی

امنیت در هوش مصنوعی یک مسئله حیاتی است، به‌خصوص با توجه به گسترش استفاده از این فناوری در حوزه‌های مختلف، از خدمات مالی گرفته تا سلامت و امنیت سایبری. مدل‌هایی مانند DeepSeek باید به‌سرعت روی بهبود تدابیر حفاظتی خود کار کنند تا از سوءاستفاده‌های احتمالی جلوگیری کنند. در غیر این صورت، نه‌تنها از بازار کنار گذاشته خواهند شد، بلکه اعتماد کاربران و سرمایه‌گذاران نیز به آن‌ها از بین می‌رود.

جمع‌بندی

شکست DeepSeek در آزمون‌های امنیتی نشان می‌دهد که فناوری هوش مصنوعی، هرچند پیشرفته و توانمند، بدون تدابیر امنیتی مناسب می‌تواند به ابزاری خطرناک تبدیل شود. شرکت‌های توسعه‌دهنده هوش مصنوعی باید امنیت را در اولویت قرار دهند و مدل‌های خود را به‌صورت مداوم به‌روزرسانی و ارزیابی کنند. تنها با این رویکرد می‌توان از آسیب‌های احتمالی جلوگیری کرد و تجربه‌ای ایمن و مطمئن برای کاربران فراهم آورد.