به گزارش اکوایران- پنتاگون قصد دارد از مدل هوش مصنوعی Claude شرکت آنتروپیک در شبکهها و پروژههای خود استفاده کند و بهدنبال دسترسی گسترده به این ابزار در طیف وسیعی از فعالیتها است. اما آنتروپیک میگوید این دسترسی باید با محدودیتهایی همراه باشد تا از استفادههایی مثل نظارت گسترده یا توسعه سلاحهای خودکار جلوگیری شود؛ چیزی که وزارت جنگ زیر بار آن نمیرود.
پنتاگون در رویارویی خود با شرکت آنتروپیک در آستانه اقداماتی بیسابقه قرار گرفته است؛ اقداماتی که میتواند یک نبرد حقوقی بزرگ را با این شرکت ۳۸۰ میلیارد دلاری رقم بزند و همزمان تلاشهای پنتاگون برای گسترش استفاده از هوش مصنوعی را تحتالشعاع قرار دهد.

محور این اختلاف رو به تشدید، قانونی ۷۶ ساله به نام «قانون تولید دفاعی» (Defense Production Act) است؛ قانونی که در سال ۱۹۵۰ و برای افزایش ظرفیت تولید در جریان جنگ کره تصویب شد. «پیت هگسث»، وزیر دفاع آمریکا، تهدید کرده است که برای وادار کردن آنتروپیک به کنار گذاشتن محدودیتها و چارچوبهایی که برای نحوه استفاده از سامانه هوش مصنوعی «کلود» تعیین کرده، به این قانون متوسل خواهد شد.
به گفته منابع آگاه، «پیت هگسث» اوایل همین هفته در دیداری پرتنش با «داریو آمودی» مدیرعامل آنتروپیک، این تهدید را مطرح کرده است. این هشدار، در کنار تهدید دیگر پنتاگون برای معرفی آنتروپیک بهعنوان «ریسک زنجیره تأمین»، ابعاد حقوقی پیچیدهای دارد و اگر عملی شود، تقریباً قطعی است که در دادگاه با چالش روبهرو خواهد شد.
«قانون تولید دفاعی» اساساً برای این وضع شده که دولت در شرایط اضطراری بتواند به منابع حیاتی دسترسی مطمئن داشته باشد. دونالد ترامپ در دوران همهگیری کرونا از آن برای مدیریت توزیع تجهیزات حفاظتی استفاده کرد و بایدن نیز برای مقابله با کمبود شیر خشک نوزادان به این قانون متوسل شد.
با این حال، استفاده از این قانون برای فشار آوردن به یک شرکت فناوری و تحمیل خواستههای پنتاگون درباره نحوه استفاده از یک نرمافزار، اقدامی کمسابقه و ورود به حوزهای تازه است. از سوی دیگر، اگر آنتروپیک «ریسک زنجیره تأمین» اعلام شود، ممکن است دستِ سایر پیمانکاران دفاعی برای استفاده از خدمات این شرکت هم بسته شود؛ برچسبی که معمولاً برای بازیگران نزدیک به دولتها در کشورهایی مثل چین یا روسیه به کار میرود.
«پیت هگسث» به آنتروپیک تا غروب دیروز مهلت داده بود تا به وزارت دفاع آمریکا اجازه دهد در چارچوب قانون، از ابزارهای هوش مصنوعی این شرکت با آزادی عمل استفاده کند. آنتروپیک اما میگوید این دسترسی باید با چند شرط همراه باشد؛ از جمله محدودیتهایی برای جلوگیری از بهکارگیری Claude در نظارت گسترده بر شهروندان آمریکایی یا توسعه سلاحهایی که بدون دخالت و تصمیم انسان قابل استفاده باشند.
در مقابل، «شان پارنل» سخنگوی پنتاگون، پنجشنبه در شبکه اجتماعی ایکس نوشت پنتاگون نه قصد دارد از هوش مصنوعی برای نظارت گسترده داخلی استفاده کند «که غیرقانونی است»، و نه میخواهد به سمت ساخت سلاحهای خودمختار بدون دخالت انسان برود.
پارنل افزود: «درخواست ما روشن است؛ اجازه دهید پنتاگون از مدل آنتروپیک برای همه مقاصد قانونی استفاده کند.» او در همان پیام هشدار داد ممکن است آنتروپیک بهعنوان «ریسک زنجیره تأمین» معرفی شود، اما نامی از «قانون تولید دفاعی» به میان نیاورد.

در همین حال، «نادیا شادلو»، پژوهشگر ارشد مؤسسه «هادسن» و معاون پیشین مشاور امنیت ملی آمریکا در امور راهبرد در دولت اول ترامپ میگوید تهدید به استفاده از «قانون تولید دفاعی» باید جدی گرفته شود؛ چون نشان میدهد نقش نرمافزار در جنگهای امروز تا چه اندازه حیاتی شده است.
شادلو در گفتوگو با رسانهها گفت: «آنچه شاهدش هستیم، اختلافی است که بر سر تغییر ماهیت جنگ شکل گرفته است.» به گفته او، نرمافزار اکنون برای پنتاگون چنان مهم است که مطرح شدن احتمال توسل به این قانون، چندان دور از انتظار نیست. او «قانون تولید دفاعی» را ابزاری قدرتمند برای بسیج ظرفیتهای اقتصادی در شرایط بحرانی دانست و گفت این قانون اساساً با همین هدف طراحی شده است. با این حال تأکید کرد حتی اگر این قانون اختیار ویژه دوران جنگ محسوب میشود، بهکارگیری آن برای وارد کردن نرمافزار به چرخه بحران، با چالشهای جدی روبهرو خواهد بود.
در دوره ریاستجمهوری بایدن نیز از این قانون در ارتباط با هوش مصنوعی استفاده شد، اما نه برای گسترش کاربرد آن؛ بلکه برای افزایش کنترل و اطمینان از ایمنی. بایدن در سال ۲۰۲۳ فرمانی اجرایی صادر کرد تا پیش از عرضه عمومی، سازوکارهایی برای ایمنسازی و ارزیابی ریسکها ایجاد شود؛ فرمانی که ترامپ پس از بازگشت به قدرت آن را لغو کرد.
بایدن در آن فرمان از اختیاری برای جمعآوری اطلاعات استفاده کرده بود که در «عنوان هفتم» این قانون آمده است. اما به نوشته «آلن روزنشتاین»، استاد حقوق دانشگاه مینهسوتا، هگسث ممکن است به سراغ «عنوان اول» برود؛ بخشی که به گفته او «قدرت اصلی اجبار» در این قانون است. روزنشتاین این سناریو را یک تشدید تنش بسیار بزرگ توصیف کرده است.
از سوی دیگر، «دین بال»، مشاور پیشین کاخ سفید و از مشارکتکنندگان در تدوین «برنامه اقدام هوش مصنوعی» دولت ترامپ، میگوید استفاده از قانون تولید دفاعی عملاً به معنی در اختیار گرفتن یک پلتفرم مهم هوش مصنوعی است. او اضافه میکند در عمل حتی ممکن است نیروهای پنتاگون در کنار تیم آنتروپیک مستقر شوند و در تصمیمهای فنی مربوط به سازوکارهای ایمنی و روند آموزش مدل نقش داشته باشند.
بال در شبکه ایکس نوشت: «در نهایت، این مسیر چیزی شبیه ملیسازی نیمبند خواهد بود. باید با نگاه واقعبینانه دید که چنین گزینهای حالا روی میز قرار گرفته است.»