به گزارش اکوایران، کاخ سفید اعلام کرده است که هفت شرکت پیشرو در زمینه هوش مصنوعی متعهد به مدیریت خطرات ناشی از این فناوری هستند. این شامل تست امنیت هوش مصنوعی و عمومی کردن نتایج آن تست‌ها می‌شود.

 نمایندگانی از آمازون، آنتروپیک، گوگل، فلکشن، متا، مایکروسافت و OpenAI برای اعلام این خبر به رئیس جمهور آمریکا جو بایدن پیوستند. این اتفاق در واکنش به هشدارهای متعدد در مورد قابلیت های این فناوری رخ داد.

سرعتی که شرکت‌ها با آن ابزارهای خود را توسعه می‌دهند، باعث ترس از انتشار اطلاعات نادرست، به ویژه در آستانه انتخابات ریاست‌جمهوری آمریکا در سال 2024 شده است.

جو بایدن، رئیس‌جمهور آمریکا در سخنانی روز جمعه گفت: «ما باید نسبت به تهدیدات ناشی از فناوری‌های نوظهور که می‌توانند برای دموکراسی و ارزش‌های ما ایجاد کنند، آگاه و هوشیار باشیم.»

روز چهارشنبه، متا، شرکت مادر فیس بوک، ابزار هوش مصنوعی خود را به نام Llama 2 معرفی کرد.

سر نیک کلگ، رئیس امور جهانی متا، به بی‌بی‌سی گفت که «هیجان‌برانگیز است! آنچه ساخته شده، حدودی از فناوری جلوتر است».

به عنوان بخشی از توافق‌نامه امضا شده در روز جمعه، شرکت‌ها روی موارد زیر توافق کردند:

1. تست امنیتی سیستم‌های هوش مصنوعی آ‌ها توسط کارشناسان داخلی و خارجی قبل از انتشار.

2. اطمینان از اینکه مردم می‌توانند هوش مصنوعی را با پیاده‌سازی واترمارک تشخیص دهند.

3. گزارش عمومی قابلیت‌ها و محدودیت‌های هوش مصنوعی به طور منظم.

4. تحقیق در مورد خطراتی مانند سوگیری، تبعیض و تجاوز به حریم خصوصی.

کاخ سفید افزود، هدف این است که مردم تشخیص دهند که چه زمانی محتوای آنلاین توسط هوش مصنوعی ایجاد می‌شود.

آقای بایدن گفت: «این یک مسئولیت جدی است، ما باید آن را درست انجام دهیم. 

واترمارک برای محتوای تولید شده توسط هوش مصنوعی از جمله موضوعاتی بود که تیری برتون، کمیسر اتحادیه اروپا با سام آلتمن، مدیر اجرایی OpenAI در جریان بازدید از سانفرانسیسکو در مورد آن صحبت کرد.

برتون در توییتی که شامل یک قطعه ویدیویی از او و آقای آلتمن بود، نوشت: «منتظر ادامه بحث‌هایمان - به‌ویژه در مورد واترمارک» هستم.

در این کلیپ، آقای آلتمن گفت که «دوست دارد به زودی نشان دهد که OpenAI با واترمارک‌ها چه می‌کند.»

پادمان‌های داوطلبانۀ امضاشده در روز جمعه گامی به سوی وضع مقررات جدی‌تر در مورد هوش مصنوعی در ایالات متحده است.

کاخ سفید اعلام کرد با متحدان خود برای ایجاد یک چارچوب بین المللی برای مدیریت توسعه و استفاده از هوش مصنوعی همکاری خواهد کرد.

هشدارهای مربوط به این فناوری شامل این است که می‌تواند برای تولید اطلاعات نادرست و بی‌ثبات کردن جامعه مورد استفاده قرار گیرد، و حتی می‌تواند خطری وجودی برای بشریت ایجاد کند - اگرچه برخی از دانشمندان علوم کامپیوتری گفته‌اند که این سنخ هشدارهای آخرالزمانی بیش از حد بزرگ‌نمایانه‌اند.