آمریکا برای دستگیری مادورو از هوش مصنوعی کلود کمک گرفت؟

مروری کوتاه بر خبر

  • پنتاگون تأیید کرد در عملیات دستگیری نیکولاس مادورو از هوش مصنوعی «کلود» استفاده شده است.
  • بر اساس گزارش‌ها، استفاده از این مدل زبانی فراتر از برنامه‌ریزی و شامل تصمیم‌گیری در حین عملیات بوده است.
  • این استفاده با سیاست‌های ممنوعه شرکت سازنده «آنتروپیک» در زمینه فعالیت‌های نظامی در تناقض است.
  • دسترسی پنتاگون از طریق همکاری با شرکت پالانتیر و در سیستم‌های طبقه‌بندی شده صورت گرفته است.
  • این موضوع بحث‌های اخلاقی درباره مرز استفاده نظامی و غیرنظامی از هوش مصنوعی را دامن زده است.

وزارت دفاع آمریکا (پنتاگون) به طور رسمی اعلام کرده است که در عملیات طراحی شده برای دستگیری نیکولاس مادورو، رئیس‌جمهور سابق ونزوئلا، از مدل هوش مصنوعی «کلود» (Claude) شرکت آنتروپیک استفاده شده است. این تأیید، بحث‌های گسترده‌ای را درباره ورود مستقیم مدل‌های زبانی پیشرفته به عرصه عملیات نظامی برانگیخته است.

استفاده فراتر از برنامه‌ریزی

بر اساس گزارشی از وال‌استریت ژورنال، نقش هوش مصنوعی کلود در این عملیات تنها به مرحله طراحی و برنامه‌ریزی محدود نبوده است. این گزارش مدعی شده که این مدل در تصمیم‌گیری‌های لحظه‌ای و در حین اجرای عملیات نیز مورد استفاده قرار گرفته است. اگر این ادعا صحت داشته باشد، این نخستین باری است که یک مدل زبانی بزرگ به چنین شکل مستقیمی در یک عملیات نظامی واقعی به کار گرفته می‌شود.

تناقض با سیاست‌های سازنده

این موضوع در شرایطی مطرح می‌شود که سیاست‌های رسمی شرکت آنتروپیک، سازنده کلود، به صراحت استفاده از این مدل را برای تسهیل خشونت، توسعه سلاح یا نظارت نظامی ممنوع اعلام کرده است. با این حال، پنتاگون از طریق همکاری با شرکت «پالانتیر تکنولوژیز» به این مدل دسترسی پیدا کرده است. این دسترسی در چارچوب سیستم‌های طبقه‌بندی‌شده نیروهای مسلح آمریکا فراهم شده و با امکانات در دسترس کاربران عادی تفاوت اساسی دارد.

واکنش شرکت آنتروپیک

شرکت آنتروپیک تاکنون از ارائه جزئیات دقیق درباره این عملیات خاص خودداری کرده است. این شرکت اعلام کرده که نمی‌تواند تأیید کند کلود در یک عملیات مشخص مورد استفاده قرار گرفته و تأکید کرده که هرگونه استفاده از محصولاتش باید مطابق با «سیاست‌های استفاده قابل قبول» این شرکت باشد.

دامن‌زدن به یک مناقشه اخلاقی

اظهارات پنتاگون موج تازه‌ای از بحث‌ها درباره نقش و حدود استفاده از هوش مصنوعی در حوزه نظامی را به راه انداخته است. این موضوع به‌ویژه از آن جهت حائز اهمیت است که کلود پیش از این به عنوان یکی از مدل‌هایی شناخته می‌شد که تمرکز ویژه‌ای بر رعایت مسائل ایمنی و چارچوب‌های اخلاقی سخت‌گیرانه دارد. اکنون پرسش اصلی این است که مرز میان استفاده غیرنظامی و نظامی از چنین فناوری‌های پیشرفته‌ای تا چه اندازه شفاف و قابل کنترل است.

منبع: asriran.com

اخبار سیاسی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
ads