چطور مدلهای هوش مصنوعی چینی مانند دیپسیک پاسخهای حساس را سانسور میکنند؟
مدل هوش مصنوعی دیپسیک که اخیراً بهصورت متنباز منتشر شده، توجهات زیادی را به خود جلب کرده است.
به گزارش در لحظه، این استارتاپ چینی در حوزههای ریاضی و استدلال عملکرد بسیار پیشرفتهای از خود نشان میدهد و حتی در این زمینهها از برخی رقبای آمریکایی پیشی گرفته است. اما یکی از ویژگیهای خاص این مدل، سانسور پاسخهای آن در مورد موضوعات حساس مربوط به چین است. بهعنوان مثال، اگر از مدل DeepSeek-R1 درباره تایوان یا اعتراضات میدان تیانآنمن سوال کنید، احتمالاً پاسخی نخواهید گرفت.
تحقیقات وایرد نشان میدهند که محدودیتهای پاسخدهی دیپسیک در مرحله آموزش مدل شکل میگیرند و دور زدن این محدودیتها ممکن است، اما به فرایندی پیچیده نیاز دارد. این مدل بهطور خاص، در محیطهای رسمی خود (وبسایت، اپلیکیشن و API)، پاسخ به موضوعات حساس سیاسی را سانسور میکند. این سانسور بهویژه در موضوعات مربوط به تایوان، اعتراضات میدان تیانآنمن و برخی دیگر از مسائل حساس مشاهده میشود.
بر اساس قوانین چین که در سال 2023 وضع شد، مدلهای هوش مصنوعی این کشور ملزم به رعایت سانسورهایی هستند که پیشتر بر شبکههای اجتماعی و موتورهای جستوجوی داخلی اعمال شده بود. هدف این قوانین، جلوگیری از تولید محتوای مغایر با “یکپارچگی کشور و هماهنگی اجتماعی” است. به همین دلیل، مدلهای هوش مصنوعی چینی مانند دیپسیک مجبور به اعمال محدودیتهای محتوا در پاسخها هستند.
با این حال، از آنجا که مدل دیپسیک متنباز است، کاربران میتوانند با روشهایی این سانسور را دور بزنند. یکی از این روشها، اجرای مدل بهصورت محلی است که در این صورت تمام پردازشها روی دستگاه کاربر انجام میشود و محدودیتها حذف میشوند. کاربران همچنین میتوانند از سرورهای ابری خارج از چین استفاده کنند.
همچنین برخی کاربران و پژوهشگران بهدنبال راهحلهایی برای حذف یا اصلاح سانسورهای موجود در مدلهای چینی هستند. برخی پلتفرمها نیز مانند پرپلکسیتی، نسخهای از R1 را ارائه دادهاند که با اصلاح سوگیریهای آن، کارایی بهتری دارد.
در نهایت، موضوع سانسور در مدلهای هوش مصنوعی چینی، مسألهای است که پیامدهای گستردهای برای آینده این مدلها و رقابت آنها در بازار جهانی خواهد داشت.
اپلیکیشن و بازیاخبار روزتکنولوژی