اکوایران: پنتاگون برای دسترسی گسترده‌تر به مدل هوش مصنوعی شرکت آنتروپیک، تهدید کرده از «قانون تولید دفاعی» استفاده کند؛ اقدامی بی‌سابقه که می‌تواند به یک نبرد حقوقی بزرگ و بحث‌برانگیز بر سر خطوط قرمز هوش مصنوعی در حوزه نظامی منجر شود.

به گزارش اکوایران- پنتاگون قصد دارد از مدل هوش مصنوعی Claude شرکت آنتروپیک در شبکه‌ها و پروژه‌های خود استفاده کند و به‌دنبال دسترسی گسترده به این ابزار در طیف وسیعی از فعالیت‌ها است. اما آنتروپیک می‌گوید این دسترسی باید با محدودیت‌هایی همراه باشد تا از استفاده‌هایی مثل نظارت گسترده یا توسعه سلاح‌های خودکار جلوگیری شود؛ چیزی که وزارت جنگ زیر بار آن نمی‌رود.

پنتاگون در رویارویی خود با شرکت آنتروپیک در آستانه اقداماتی بی‌سابقه قرار گرفته است؛ اقداماتی که می‌تواند یک نبرد حقوقی بزرگ را با این شرکت ۳۸۰ میلیارد دلاری رقم بزند و هم‌زمان تلاش‌های پنتاگون برای گسترش استفاده از هوش مصنوعی را تحت‌الشعاع قرار دهد.

18biz-anthropic-pentagon-01-gwht-videoSixteenByNine3000

محور این اختلاف رو به تشدید، قانونی ۷۶ ساله به نام «قانون تولید دفاعی» (Defense Production Act) است؛ قانونی که در سال ۱۹۵۰ و برای افزایش ظرفیت تولید در جریان جنگ کره تصویب شد. «پیت هگسث»، وزیر دفاع آمریکا، تهدید کرده است که برای وادار کردن آنتروپیک به کنار گذاشتن محدودیت‌ها و چارچوب‌هایی که برای نحوه استفاده از سامانه هوش مصنوعی «کلود» تعیین کرده، به این قانون متوسل خواهد شد.

به گفته منابع آگاه، «پیت هگسث» اوایل همین هفته در دیداری پرتنش با «داریو آمودی» مدیرعامل آنتروپیک، این تهدید را مطرح کرده است. این هشدار، در کنار تهدید دیگر پنتاگون برای معرفی آنتروپیک به‌عنوان «ریسک زنجیره تأمین»، ابعاد حقوقی پیچیده‌ای دارد و اگر عملی شود، تقریباً قطعی است که در دادگاه با چالش روبه‌رو خواهد شد.

«قانون تولید دفاعی» اساساً برای این وضع شده که دولت در شرایط اضطراری بتواند به منابع حیاتی دسترسی مطمئن داشته باشد. دونالد ترامپ در دوران همه‌گیری کرونا از آن برای مدیریت توزیع تجهیزات حفاظتی استفاده کرد و بایدن نیز برای مقابله با کمبود شیر خشک نوزادان به این قانون متوسل شد.

با این حال، استفاده از این قانون برای فشار آوردن به یک شرکت فناوری و تحمیل خواسته‌های پنتاگون درباره نحوه استفاده از یک نرم‌افزار، اقدامی کم‌سابقه و ورود به حوزه‌ای تازه است. از سوی دیگر، اگر آنتروپیک «ریسک زنجیره تأمین» اعلام شود، ممکن است دستِ سایر پیمانکاران دفاعی برای استفاده از خدمات این شرکت هم بسته شود؛ برچسبی که معمولاً برای بازیگران نزدیک به دولت‌ها در کشورهایی مثل چین یا روسیه به کار می‌رود.

«پیت هگسث» به آنتروپیک تا غروب دیروز مهلت داده بود تا به وزارت دفاع آمریکا اجازه دهد در چارچوب قانون، از ابزارهای هوش مصنوعی این شرکت با آزادی عمل استفاده کند. آنتروپیک اما می‌گوید این دسترسی باید با چند شرط همراه باشد؛ از جمله محدودیت‌هایی برای جلوگیری از به‌کارگیری Claude در نظارت گسترده بر شهروندان آمریکایی یا توسعه سلاح‌هایی که بدون دخالت و تصمیم انسان قابل استفاده باشند.

در مقابل، «شان پارنل» سخنگوی پنتاگون، پنج‌شنبه در شبکه اجتماعی ایکس نوشت پنتاگون نه قصد دارد از هوش مصنوعی برای نظارت گسترده داخلی استفاده کند «که غیرقانونی است»، و نه می‌خواهد به سمت ساخت سلاح‌های خودمختار بدون دخالت انسان برود.

پارنل افزود: «درخواست ما روشن است؛ اجازه دهید پنتاگون از مدل آنتروپیک برای همه مقاصد قانونی استفاده کند.» او در همان پیام هشدار داد ممکن است آنتروپیک به‌عنوان «ریسک زنجیره تأمین» معرفی شود، اما نامی از «قانون تولید دفاعی» به میان نیاورد.

heg

در همین حال، «نادیا شادلو»، پژوهشگر ارشد مؤسسه «هادسن» و معاون پیشین مشاور امنیت ملی آمریکا در امور راهبرد در دولت اول ترامپ می‌گوید تهدید به استفاده از «قانون تولید دفاعی» باید جدی گرفته شود؛ چون نشان می‌دهد نقش نرم‌افزار در جنگ‌های امروز تا چه اندازه حیاتی شده است.

شادلو در گفت‌وگو با رسانه‌ها گفت: «آنچه شاهدش هستیم، اختلافی است که بر سر تغییر ماهیت جنگ شکل گرفته است.» به گفته او، نرم‌افزار اکنون برای پنتاگون چنان مهم است که مطرح شدن احتمال توسل به این قانون، چندان دور از انتظار نیست. او «قانون تولید دفاعی» را ابزاری قدرتمند برای بسیج ظرفیت‌های اقتصادی در شرایط بحرانی دانست و گفت این قانون اساساً با همین هدف طراحی شده است. با این حال تأکید کرد حتی اگر این قانون اختیار ویژه دوران جنگ محسوب می‌شود، به‌کارگیری آن برای وارد کردن نرم‌افزار به چرخه بحران، با چالش‌های جدی روبه‌رو خواهد بود.

در دوره ریاست‌جمهوری بایدن نیز از این قانون در ارتباط با هوش مصنوعی استفاده شد، اما نه برای گسترش کاربرد آن؛ بلکه برای افزایش کنترل و اطمینان از ایمنی. بایدن در سال ۲۰۲۳ فرمانی اجرایی صادر کرد تا پیش از عرضه عمومی، سازوکارهایی برای ایمن‌سازی و ارزیابی ریسک‌ها ایجاد شود؛ فرمانی که ترامپ پس از بازگشت به قدرت آن را لغو کرد.

بایدن در آن فرمان از اختیاری برای جمع‌آوری اطلاعات استفاده کرده بود که در «عنوان هفتم» این قانون آمده است. اما به نوشته «آلن روزنشتاین»، استاد حقوق دانشگاه مینه‌سوتا، هگسث ممکن است به سراغ «عنوان اول» برود؛ بخشی که به گفته او «قدرت اصلی اجبار» در این قانون است. روزنشتاین این سناریو را یک تشدید تنش بسیار بزرگ توصیف کرده است.

از سوی دیگر، «دین بال»، مشاور پیشین کاخ سفید و از مشارکت‌کنندگان در تدوین «برنامه اقدام هوش مصنوعی» دولت ترامپ، می‌گوید استفاده از قانون تولید دفاعی عملاً به معنی در اختیار گرفتن یک پلتفرم مهم هوش مصنوعی است. او اضافه می‌کند در عمل حتی ممکن است نیروهای پنتاگون در کنار تیم آنتروپیک مستقر شوند و در تصمیم‌های فنی مربوط به سازوکارهای ایمنی و روند آموزش مدل نقش داشته باشند.

بال در شبکه ایکس نوشت: «در نهایت، این مسیر چیزی شبیه ملی‌سازی نیم‌بند خواهد بود. باید با نگاه واقع‌بینانه دید که چنین گزینه‌ای حالا روی میز قرار گرفته است.»