به گزارش اکوایران- بنا بر گزارش بلومبرگ، پنتاگون اعلام کرده است که بهطور رسمی به شرکت Anthropic اطلاع داده که این شرکت و محصولاتش برای زنجیره تأمین ایالات متحده «ریسک» محسوب میشوند. این موضوع را یک مقام ارشد دفاعی به بلومبرگ گفته و آن را نشانهای از تشدید اختلاف میان دولت آمریکا و این شرکت بر سر نحوه استفاده از هوش مصنوعی دانسته است.
این مقام ارشد دفاعی گفت: «وزارت جنگ (DOW) بهطور رسمی به مدیران Anthropic اطلاع داده که این شرکت و محصولاتش از همین حالا بهعنوان ریسک برای زنجیره تأمین شناخته میشوند.» او از مخفف DOW برای «Department of War» استفاده کرد؛ نامی که پیت هگست، وزیر دفاع آمریکا، ترجیح میدهد بهجای «وزارت دفاع» به کار ببرد.
با وجود اینکه این فرد تأکید کرده که تصمیم اتخاذ شده بلافاصله پس از اعلام لازمالاجرا است، اما به گفته فردی آگاه از موضوع، ابزارهای هوش مصنوعی Claude متعلق به Anthropic همچنان در عملیات نظامی آمریکا علیه ایران استفاده میشوند. هگست در هشداری که جمعه گذشته به این شرکت داده بود، یک دوره انتقال ششماهه برای جایگزینی این فناوری با محصولات دیگر در نظر گرفته بود.
سخنگویان Anthropic و پنتاگون در این باره هنوز واکنشی نشان ندادند. همچنین این فرد آگاه توضیح نداد که پنتاگون چه زمانی و از چه طریقی این تصمیم را به شرکت اعلام کرده است. شرکت Anthropic پیشتر گفته بود اگر پنتاگون چنین برچسبی به آن بزند، در دادگاه آن را به چالش خواهد کشید.
این تصمیم پنتاگون میتواند هم برای شرکت و هم برای ارتش آمریکا دردسرساز شود، زیرا نیروهای نظامی تا حد زیادی به نرمافزارهای این شرکت متکی بودهاند. تا همین اواخر، Anthropic تنها سامانه هوش مصنوعی را ارائه میداد که امکان فعالیت در فضای ابری طبقهبندیشده پنتاگون را داشت. ابزار Claude Gov نیز به دلیل سادگی استفاده، در میان کارکنان دفاعی محبوب شده است.
لورن کان، تحلیلگر ارشد پژوهشی در مرکز امنیت و فناوریهای نوظهور دانشگاه جرجتاون، میگوید: «این یک توانمندی مهم است و حذف آن برای همه طرفها دردناک خواهد بود». داریو آمودی، مدیرعامل Anthropic، طی هفتههای گذشته با امیل مایکل، معاون وزیر دفاع در امور پژوهش و مهندسی، در حال مذاکره بود تا قراردادی درباره دسترسی پنتاگون به فناوری این شرکت تنظیم شود.
اما این مذاکرات هفته گذشته زمانی شکست خورد که استارتاپ Anthropic خواستار تضمینهایی شد مبنی بر اینکه هوش مصنوعیاش برای نظارت گسترده بر شهروندان آمریکایی یا استفاده در سلاحهای خودکار به کار نخواهد رفت. پس از آن، هگست روز جمعه در پستی در شبکه اجتماعی X اعلام کرد که Anthropic یک «ریسک برای زنجیره تأمین» محسوب میشود؛ برچسبی که معمولاً برای شرکتها یا نهادهای مرتبط با رقبای آمریکا به کار میرود.
هنوز مشخص نیست پنتاگون با چه اختیارات قانونی این شرکت را بهعنوان تهدید برای زنجیره تأمین طبقهبندی کرده است. Anthropic در واکنش به پست هگست گفته بود انتظار دارد چنین اقدامی در نهایت بر اساس بخش ۳۲۵۲ قانون حاکم بر نیروهای مسلح آمریکا انجام شود.
مقام دفاعی آمریکا گفت: «از همان ابتدا موضوع بر سر یک اصل اساسی بوده است: اینکه ارتش بتواند از فناوری برای همه اهداف قانونی استفاده کند. ارتش اجازه نخواهد داد یک تأمینکننده با محدود کردن استفاده قانونی از یک قابلیت حیاتی، خود را در زنجیره فرماندهی قرار دهد و جان نیروهای ما را به خطر بیندازد.»
این اختلاف در حالی رخ میدهد که ارتش آمریکا در عملیات خود علیه ایران از هوش مصنوعی Claude استفاده میکند. نیروهای آمریکایی برای مدیریت سریع حجم عظیمی از دادهها در عملیات نظامی، به طیفی از ابزارهای هوش مصنوعی روی آوردهاند.
سامانه Maven Smart System که توسط شرکت Palantir Technologies ساخته شده و بهطور گسترده توسط نیروهای نظامی آمریکا در خاورمیانه استفاده میشود، یکی از پلتفرمهایی است که مدل Claude در آن بهکار گرفته شده است. به گفته منابع آگاه، این ابزار عملکرد خوبی داشته و به بخش مهمی از عملیات آمریکا علیه ایران و همچنین توسعه سریعتر قابلیتهای هوش مصنوعی Maven تبدیل شده است.
شرکت Anthropic که اکنون حدود ۳۸۰ میلیارد دلار ارزشگذاری شده، بر اساس روند فعلی در مسیر دستیابی به نزدیک به ۲۰ میلیارد دلار درآمد سالانه قرار دارد؛ رقمی که بیش از دو برابر نرخ درآمد آن در اواخر سال گذشته است. با این حال، اختلاف با پنتاگون چشمانداز آینده شرکت را تا حدی مبهم کرده است.
هنوز مشخص نیست اعلام این تصمیم از سوی پنتاگون در بلندمدت چه تأثیری بر فروش Anthropic به مشتریان سازمانی که بازار اصلی این شرکت به شمار میرود خواهد داشت. در همین حال، این شرکت در میان کاربران عادی نیز در حال رشد است؛ بهطوری که اپلیکیشن اصلی آن اخیراً در جدول دانلودهای اپل به رتبههای بالای فهرست رسیده و نشاندهنده افزایش استقبال کاربران از این پلتفرم است.