امیرحسین صادقی قهرودی / پژوهشگر سیاستگذاری عمومی


در عصری که اخبار فناوری با سرعتی سرگیجه‌آور مخابره می‌شود، از رونمایی مدل‌های زبانی جدید گرفته تا هشدارهای ایلان ماسک درباره پایان تمدن بشری، سیاستگذاران و مدیران ارشد در سراسر جهان دچار یک خطای شناختی مهلک شده‌اند: «تلاش برای پیش‌گویی یک آینده قطعی». در همین حال، ما عادت کرده‌ایم که آینده را خطی ببینیم؛ یا به سمت مدینه فاضله‌ای می‌رویم که ربات‌ها همه کارها را می‌کنند و ما استراحت، یا به سوی ویرانشهری که در آن برده ماشین‌ها خواهیم شد. اما بررسی تطبیقی پنج گزارش آینده‌پژوهانه که اخیراً توسط نهادهای معتبری همچون اداره علوم دولت بریتانیا، وزارت آموزش ایالات متحده و موسسه تحقیقاتی Epoch AI منتشر شده‌اند، آب پاکی را روی دست همه می‌ریزد. پیام مشترک این اسناد که در مجموع هزاران صفحه تحلیل کارشناسی را در بر می‌گیرند، صریح، ترسناک و در عین حال امیدوارکننده است: آینده هوش مصنوعی "از پیش تعیین شده" نیست و خطی نخواهد بود.

 اجماع جهانی که حاصل همفکری صدها متخصص تراز اول در حوزه‌های فنی و سیاستی است، به ما می‌گوید که شرط‌بندی روی یک سناریوی خاص (مثلاً ظهور قطعی ابرهوش مصنوعی یا AGI) اشتباهی استراتژیک است. آینده این فناوری، حاصلِ جمعِ جبری و تعامل پیچیده پنج «عدم قطعیت حیاتی» است که هر کدام می‌توانند مسیر تاریخ را تغییر دهند.

در این یادداشت، ابتدا به تشریح این پنج متغیر و پنج سناریوی حاصل از آن‌ها می‌پردازیم و در بخش دوم، با عینک منافع ملی، جایگاه ایران را در این صفحه شطرنج پیچیده تحلیل خواهیم کرد.

معماری عدم قطعیت؛ پنج ستون لرزان آینده

گزارشات استدلال می‌کنند که برای فهم سال ۲۰۳۰، نباید فقط به کدهای کامپیوتری نگاه کرد. پنج عامل زیر، سرنوشت ما را رقم خواهند زد:

۱. قابلیت: سوال این نیست که هوش مصنوعی چه کاری می‌تواند انجام دهد، بلکه سوال این است که چقدر سریع پیشرفت می‌کند؟ آیا ما تا سال ۲۰۳۰ به «هوش جامع مصنوعی» یا همان (AGI) که هم‌تراز یا برتر از انسان است می‌رسیم، یا در حصار مدل‌های تخصصی و محدود فعلی باقی می‌مانیم؟ هشداری که حتی متخصصان هم در این باره توافق ندارند.

۲. مالکیت و دسترسی: کلیدهای قدرت در دست کیست؟ آیا آینده در انحصار چند غول فناوری در سیلیکون‌ولی (مانند OpenAI و Google) باقی می‌ماند که مدل‌های «متن‌بسته» و کنترل‌شده دارند؟ یا اینکه دنیای «متن‌باز» پیروز می‌شود و قدرتمندترین مدل‌ها روی لپ‌تاپ هر دانشجویی در هر جای دنیا قابل اجرا خواهد بود؟ دوگانه‌ای که تفاوت بین تمرکز ثروت و دموکراتیزه شدن خطرناک قدرت است.

۳. ایمنی: آیا می‌توانیم اژدهایی را که بیدار کرده‌ایم کنترل کنیم؟ بحث ایمنی فراتر از باگ‌های نرم‌افزاری است؛ بحث بر سر «همسویی» اهداف هوش مصنوعی با ارزش‌های انسانی است. آیا سیستم‌ها قابل تفسیرند یا جعبه‌های سیاهی که تصمیمات مرگبار می‌گیرند؟

۴. میزان استفاده: تکنولوژی تا چه حد در تار و پود زندگی نفوذ می‌کند؟ آیا مردم با آغوش باز پذیرای آن می‌شوند یا به دلیل ترس از بیکاری و نقض حریم خصوصی، نوعی جنبش «ماشین‌شکنی» مدرن شکل می‌گیرد؟ 

۵. ژئوپلیتیک: شاید مهم‌ترین متغیر برای کشورهایی مثل ایران. آیا جهان به سمت همکاری برای تنظیم مقررات جهانی می‌رود یا وارد یک «جنگ سرد تکنولوژیک» می‌شویم که در آن زنجیره‌های تامین تراشه و داده، سلاح‌های جدید میدان نبردند؟ 

پنج سناریوی ۲۰۳۰

بر اساس ترکیب متغیرهای بالا، گزارش‌ها پنج دنیای ممکن را تصویر می‌کنند که پیش‌بینی نیستند، بلکه «آینده‌های محتمل» هستند که باید برای همه آن‌ها آماده باشیم.

۱. هوش مصنوعی پیشرفته و غیرقابل پیش‌بینی 

در این سناریو، مدل‌های متن‌باز پیروز میدان شده‌اند. توسعه‌دهندگان مستقل توانسته‌اند مدل‌های بسیار قدرتمندی بسازند که روی سخت‌افزارهای معمولی اجرا می‌شوند.

در نتیجه نوآوری منفجر می‌شود. هر کس می‌تواند یک اپلیکیشن هوش مصنوعی بسازد. اما نیمه تاریک هولناک است: هرج‌ومرج. بدافزارهای هوشمند، حملات سایبری خودکار و دیپ‌فیک‌های غیرقابل تشخیص بیداد می‌کنند. امنیت ملی کشورها به شدت آسیب‌پذیر می‌شود و چون قدرت پخش شده است، هیچ کس پاسخگو نیست.

۲. هوش مصنوعیِ مخرب نیروی کار 

در این دنیا، ما به هوش عمومی (AGI) نرسیده‌ایم، اما هوش مصنوعی‌های تخصصی (Narrow AI) آنقدر در انجام کارهای خاص (از کدنویسی تا رانندگی و حسابداری) مهارت پیدا کرده‌اند که جایگزین انسان شده‌اند. بنابراین بهره‌وری شرکت‌ها سر به فلک می‌کشد، اما به قیمت بیکاری گسترده. خشم عمومی شعله‌ور می‌شود. شکاف طبقاتی بین «صاحبان هوش مصنوعی» و «کارگران جایگزین شده» عمیق می‌شود. دولت‌ها زیر فشار تامین هزینه‌های اجتماعی کمر خم می‌کنند.

۳. گسستِ حکمرانیِ سایبری

شاید محتمل‌ترین سناریو برای جهان امروز باشد. چرا که مدل‌های متوسط و نیمه‌قدرتمند همه جا هستند. هیچ استاندارد جهانی وجود ندارد و همکاری بین‌المللی فروپاشیده است. پس کلاهبرداری، جعل هویت و دستکاری افکار عمومی به یک صنعت تبدیل می‌شود. «حقیقت» کمیاب‌ترین کالا می‌شود. اعتماد اجتماعی از بین می‌رود و دولت‌ها مدام در حال خاموش کردن آتش بحران‌های ناشی از سواستفاده‌های خرد و کلان هستند.

۴. لبه تیغ

یک شرکت (احتمالاً آمریکایی) موفق به خلق ابرهوش (AGI) می‌شود و به تبع می‌تواند هر کاری که انسان می‌کند را بهتر انجام دهد. بنابراین ممکن است که رفاه و پیشرفت علمی جهش‌وار رخ می‌دهد؛ درمان سرطان، حل بحران انرژی و... اما تمرکز قدرت وحشتناک است. دموکراسی و حاکمیت ملی دولت‌ها به لبه پرتگاه می‌رود، زیرا یک شرکت خصوصی قدرتی فراتر از دولت‌ها دارد. خطر از دست رفتن کنترل این ابرهوش، کابوس شبانه بشریت است.

۵. ناامیدی بزرگ 

حباب می‌ترکد. مشکلات سخت‌افزاری، کمبود داده‌های باکیفیت و محدودیت‌های فیزیکی باعث می‌شود پیشرفت‌ها کند شود در نهایت سرمایه‌گذاران بازار را ترک می‌کنند. هوش مصنوعی به ابزاری معمولی تبدیل می‌شود، نه انقلابی. کسانی که روی تغییرات بنیادین قمار کرده بودند، ورشکست می‌شوند.

ایران در کجای این معادله ایستاده است؟

حال سوال اساسی اینجاست: استراتژی ایران در قبال این سناریوها چیست؟

با تطبیق سناریو‌ها با واقعیت‌های اقتصادی و سیاسی ایران، می‌توان چهار محور حیاتی را برای سیاستگذاری کشور استخراج کرد. البته که باید در نظر داشت، وضعیت ایران به دلیل تحریم‌ها، چالش‌های اقتصادی و ساختار نیروی کار، پیچیدگی‌های مضاعفی دارد.

۱. تیغ دو لبه‌ «متن‌باز» برای ایران

در سناریوهای ۱ و ۳ (هوش مصنوعی پیشرفته و گسستِ حکمرانیِ سایبری)، مدل‌های متن‌باز دست بالا را دارند.

برای ایران که تحت شدیدترین تحریم‌های تکنولوژیک قرار دارد و دسترسی‌اش به APIهای شرکت‌هایی مثل OpenAI و Google محدود یا مسدود است، دنیای متن‌باز یک موهبت الهی است چون به مهندسان ایرانی اجازه می‌دهد بدون نیاز به مجوزهای اوفک (OFAC)، روی لبه تکنولوژی حرکت کنند و سرویس‌های بومی بسازند. اما گزارشات هشدار می‌دهند که این دنیا، دنیای حملات سایبری پیچیده است. زیرساخت‌های حیاتی ایران که همین حالا هم هدف حملات سایبری هستند، در سناریوی «گسستِ حکمرانیِ سایبری» با امواج سهمگین‌تری از بدافزارهای هوشمند روبرو خواهند شد.

بنابر این اتفاق، بهترین توصیه این است که استراتژی سایبری کشور باید از حالت تدافعی سنتی به «دفاع مبتنی بر هوش مصنوعی» تغییر فاز دهد.

۲. شوک بازار کار و اقتصاد تحریم‌زده

سناریوی دوم (تخریب نیروی کار) برای اقتصاد ایران که با تورم و نرخ مشارکت پایین دست‌وپنج نرم می‌کند، بسیار خطرناک است چرا که اتوماسیون می‌تواند منجر به افزایش نابرابری شود. در ایران، بخش‌های خدمات، بانکداری و اداری که سهم بزرگی از اشتغال طبقه متوسط را دارند، به شدت در معرض اتوماسیون هستند. اگر هوش مصنوعی جایگزین نیروی کار شود، شوک بیکاری در کنار تحریم‌ها می‌تواند تاب‌آوری اجتماعی را بشکند. بنابراین آموزشی کشور باید فوراً از تربیت «کارمند اداری» به سمت تربیت «متخصصانی که با هوش مصنوعی کار می‌کنند» تغییر جهت دهد. یادمان باشد که ما نیاز به بازآموزی (Reskilling) ملی داریم.

۳. ژئوپلیتیک و بلوک‌بندی‌های جدید

گزارش بریتانیا صراحتاً از شکل‌گیری بلوک‌های قدرت و کاهش همکاری جهانی صحبت می‎‌کند و در سناریوهایی که همکاری جهانی کم است (مانند سناریوی ۳ و ۵)، جهان به دو بلوک فناوری (احتمالاً غرب و چین) تقسیم می‌شود. ایران در این میان باید انتخاب کند. اتکای صرف به اکوسیستم شرق (چین/روسیه) شاید دسترسی سخت‌افزاری را تامین کند، اما ممکن است ما را در استانداردهای داده و ایمنی محدود کند. اما بسیار اهمیت دارد که دیپلماسی فناوری باید جزو اولویت‌های وزارت خارجه باشد. ایران باید تلاش کند در تنظیم‌گری‌های منطقه‌ای نقش ایفا کند تا صرفاً مصرف‌کننده استانداردهای بلوک‌های قدرت نباشد.

۴. حاکمیت داده و سراب مالکیت

در سناریوی ۴ (لبه تیغ)، قدرت در دست مالکان مدل‌های بزرگ متمرکز می‌شود و ایران به دلیل عدم دسترسی به پردازنده‌های فوق پیشرفته (مانند H100 انویدیا) و دیتاسنترهای عظیم، احتمالاً در جایگاه «مالک مدل‌های مرزی» نخواهد بود. خطر اینجاست که ما به «مستعمره دیجیتال» تبدیل شویم؛ جایی که داده‌های ما صادر می‌شود و هوش مصنوعی پردازش شده وارد می‌شود. شاید بهترین راهکار تمرکز بر «داده‌های ملی» باشد. اگر نمی‌توانیم در سخت‌افزار با گوگل رقابت کنیم، می‌توانیم در «داده‌های بومی» (زبان فارسی، فرهنگ، داده‌های صنعتی خاص) انحصار ایجاد کنیم. به عبارتی توسعه مدل‌های زبانی کوچک‌تر اما بهینه شده برای زبان و فرهنگ ایران، می‌تواند یک راهکار استراتژیک برای جلوگیری از استعمار دیجیتال است.

نتیجه‌گیری: از پیش‌بینی تا تاب‌آوری

پیام نهایی سر جمع گزارش‌ها یک جمله است: «برای همه چیز آماده باش».

ما نباید استراتژی ملی هوش مصنوعی را صرفاً بر اساس خوش‌بینی (رشد اقتصادی) یا بدبینی (جنگ سایبری) بنا کنیم. سیاست‌های ما باید تاب‌آور باشند. یعنی سیاستی طراحی کنیم که اگر فردا مدل‌های متن‌باز دنیا را گرفتند، کار کند و اگر گوگل به ابرهوش رسید و درها را بست، باز هم کار کند.

زمان آن گذشته است که منتظر بمانیم تا آینده رخ دهد. در دنیای «گسستِ حکمرانیِ سایبری» یا «لبه تیغ»، برنده کسی نیست که بهترین پیش‌گوست، بلکه کسی است که منعطف‌ترین ساختار را دارد. برای ایران، این به معنای سرمایه‌گذاری حیاتی (تا حد ممکن و فکر شده) روی زیرساخت پردازشی و توانمندسازی، آزادسازی داده‌های دولتی برای بخش خصوصی و البته جدی گرفتن امنیت سایبری در حد امنیت مرزهای فیزیکی است. آینده خطی نیست؛ استراتژی ما هم نباید خطی باشد.

 

منابع:

۱. اداره علوم دولت بریتانیا: سناریوهای هوش مصنوعی ۲۰۳۰ (۲۰۲۴) 

 ۲. ایپاک ای‌آی (Epoch AI): هوش مصنوعی در ۲۰۳۰: تعمیم روندهای فعلی (۲۰۲۴) 

 ۳. وزارت آموزش ایالات متحده: هوش مصنوعی و آینده آموزش و یادگیری (۲۰۲۳)  

۴. مجله مهندسی پیشرفته میکایلالسیس: آینده هوش مصنوعی: روندها و پیش‌بینی‌ها (۲۰۲۴) 

 ۵. بلو دات پرس: هوش مصنوعی و زندگی در ۲۰۳۰: مطالعه صد ساله (۲۰۲۵)