دیپسیک، استارتاپی که اخیراً در دنیای هوش مصنوعی توجه بسیاری را به خود جلب کرده، با اتهامی سنگین از سوی OpenAI مواجه شده است. این شرکت مدعی است که دیپسیک از مدلهای ChatGPT و دیگر فناوریهای آن برای آموزش مدل هوش مصنوعی خود، بدون دریافت مجوز، بهره برده است. در صورت اثبات این ادعا، دیپسیک قوانین OpenAI را نقض کرده و ممکن است با پیامدهای قانونی مواجه شود.
روش استخراج دانش؛ تکنیکی که منجر به اتهام شد
طبق گزارش فایننشال تایمز، OpenAI اعلام کرده که دیپسیک از تکنیکی موسوم به استخراج دانش (Distillation) برای توسعه مدل هوش مصنوعی خود استفاده کرده است. این روش به توسعهدهندگان اجازه میدهد خروجیهای یک مدل از پیش آموزشدیده را برای آموزش یک مدل جدید بهکار بگیرند. درحالیکه استفاده از این تکنیک در دنیای هوش مصنوعی امری معمول است، اما مسئله اینجاست که دیپسیک ظاهراً دادههای خود را از OpenAI استخراج کرده، بدون آنکه اجازهای از این شرکت دریافت کند.
بهکارگیری این روش میتواند هزینههای توسعه مدلهای پیشرفته را بهشدت کاهش دهد، اما اگر دیپسیک واقعاً با این روش مدل R1 خود را توسعه داده باشد، ادعای هزینه پایین آن زیر سؤال میرود.
نقض قوانین OpenAI و واکنش مایکروسافت
OpenAI صراحتاً در قوانین خود ذکر کرده است که کاربران API آن، اجازه ندارند از خدمات این شرکت برای کپیبرداری و توسعه مدلهای رقابتی استفاده کنند. در همین راستا، مایکروسافت و OpenAI در سال گذشته تعدادی حساب مشکوک را مسدود کردهاند که ظاهراً متعلق به دیپسیک بودهاند.
به گفته منابع مطلع، این حسابها با هدف استخراج دادهها از مدلهای OpenAI و استفاده از آنها برای آموزش مدلهای دیپسیک ایجاد شده بودند. این اقدام، علاوه بر نقض قوانین OpenAI، میتواند به سرقت مالکیت فکری و دادههای حساس مرتبط باشد.
تأکید بر امنیت فناوریهای هوش مصنوعی
OpenAI در بیانیهای اعلام کرده که شرکتهایی در چین و سایر کشورها همواره در تلاشاند از مدلهای شرکتهای پیشروی آمریکایی دادهبرداری کنند. این موضوع باعث شده که OpenAI برای محافظت از فناوریهای پیشرفته خود، همکاری نزدیکی با دولت ایالات متحده داشته باشد.
دیوید ساکس، مشاور کاخ سفید در حوزه هوش مصنوعی، نیز در مصاحبهای اعلام کرد که شواهد معتبری وجود دارد که نشان میدهد دیپسیک از اطلاعات مدلهای OpenAI استفاده کرده است. این موضوع، نگرانیها درباره امنیت فناوریهای هوش مصنوعی را افزایش داده است.
نقد دوگانه: آیا OpenAI خود قوانین را رعایت کرده است؟
این در حالی است که خود OpenAI نیز پیشتر با اتهامات مشابهی روبهرو شده بود. در دسامبر ۲۰۲۳ (آذر ۱۴۰۲)، روزنامه نیویورک تایمز از OpenAI شکایت کرد و مدعی شد که این شرکت بدون مجوز از محتوای آن برای آموزش مدلهایش استفاده کرده است. پس از آن، رسانههای دیگری نیز اتهامات مشابهی را مطرح کردند.
این مسئله باعث شده که بسیاری، اتهام OpenAI علیه دیپسیک را نوعی برخورد دوگانه تلقی کنند. درحالیکه OpenAI خود به استفاده بدون مجوز از دادههای عمومی متهم شده، اکنون این شرکت دیپسیک را به نقض حقوق خود متهم میکند.
با توجه به حساسیت اطلاعات و رقابت شدید در دنیای هوش مصنوعی، شرکتهای بزرگ به دنبال افزایش امنیت دادههای خود و جلوگیری از دسترسی غیرمجاز رقبا هستند. یکی از روشهای مؤثر در این زمینه، خرید آی پی ثابت برای کنترل دقیقتر روی دسترسی به سرورها و جلوگیری از نفوذ غیرمجاز است.
نتیجهگیری
اتهام OpenAI علیه دیپسیک بار دیگر توجهات را به مسائل حقوقی و اخلاقی در استفاده از دادههای هوش مصنوعی جلب کرده است. اگرچه استخراج دانش یک روش رایج در این صنعت است، اما نقض قوانین شرکتهای دیگر، میتواند تبعات حقوقی و مالی سنگینی داشته باشد.
در دنیایی که امنیت دادهها و محافظت از فناوریهای پیشرفته اهمیت بالایی دارند، خرید آی پی ثابت بهعنوان یکی از راهکارهای موثر برای کنترل دسترسی و جلوگیری از استفادههای غیرمجاز، بیش از پیش اهمیت یافته است.