هوش مصنوعی به جنگ می‌رود: رویارویی OpenAI، Anthropic و پنتاگون بر سر سازوکارهای ایمنی هوش مصنوعی به جنگ می‌رود: رویارویی OpenAI، Anthropic و پنتاگون بر سر سازوکارهای ایمنی

OpenAI و Anthropic هر دو خواهان نقشی در امنیت ملی هستند. شکاف زمانی پدیدار شد که بحث از فروش مدل‌های قدرتمند به این پرسش منتقل شد که چه کسی ریل‌های حفاظتی هوش مصنوعی نظامی، حدود نظارت، و قوانین مربوط به سلاح‌های خودمختار را کنترل می‌کند.

برای سال‌ها، آزمایشگاه‌های بزرگ هوش مصنوعی خود را به‌عنوان سازندگان ابزارهایی برای کار، پژوهش و زندگی روزمره معرفی می‌کردند. در سال ۲۰۲۶، آن تصویر با واقعیتی سخت‌تر روبه‌رو شد. پس از آنکه پنتاگون به‌دلیل محدودیت‌هایی که شرکت می‌خواست بر استفاده نظامی از کلود حفظ کند، آن را به‌عنوان “خطر زنجیره تأمین” برچسب زد، Anthropic اقامه دعوا کرد. تقریباً در همان زمان، OpenAI از توافقی برای استقرار مدل‌هایش در شبکه‌های طبقه‌بندی‌شده پنتاگون خبر داد و گفت این توافق شامل خطوط قرمز سخت‌گیرانه است. این امر یک موضوع سیاستی آرام را به مناقشه‌ای عمومی درباره اخلاق هوش مصنوعی نظامی، نظارت جمعی داخلی، و اینکه زمانی که وعده‌های ایمنی با قدرت دولت تلاقی می‌کنند چه کسی حرف آخر را می‌زند، تبدیل کرد.

هر دو شرکت از پیش در پروژه‌های دولت ایالات متحده و امنیت ملی مشارکت دارند و هر دو همچنان ایمنی را محور هویت خود توصیف می‌کنند. پس این روایتِ یک آزمایشگاه محتاط در برابر یک آزمایشگاه تهاجمی نیست. این داستانِ دو شرکتی است که هر دو خواهان کسب‌وکار دفاعی‌اند اما درباره اینکه یک شرکت خصوصی پس از ورود هوش مصنوعی‌اش به سامانه‌های نظامی باید چه‌قدر کنترل نزد خود نگه دارد، اختلاف نظر دارند.

ریل‌های حفاظتی در هوش مصنوعی نظامی چه معنایی دارند

در این مناقشه، “ریل‌های حفاظتی” شامل این می‌شود که مدل از انجام چه کارهایی سرباز می‌زند، قرارداد چه چیزهایی را مجاز می‌داند، سامانه کجا می‌تواند اجرا شود، آیا انسان‌ها باید اقدامات حساس را تأیید کنند یا نه، چه کسی می‌تواند نحوه استفاده را ممیزی کند، و آیا فروشنده می‌تواند در صورت نقض قواعد، استقرار را متوقف کند یا خیر.

یک شرکت می‌تواند بگوید استفاده‌های زیان‌بار را ممنوع کرده است، اما پرسش واقعی این است که آن ممنوعیت زیر فشار چگونه عمل می‌کند. آیا محدودیت در متن قرارداد آمده است؟ آیا توسط خود مدل اجرا می‌شود؟ آیا دولت آن قاعده را در زمان واقعی تفسیر می‌کند، یا فروشنده همچنان حق وتو نزد خود نگه می‌دارد؟

وقتی از هوش مصنوعی برای تحلیل اطلاعات، عملیات سایبری، برنامه‌ریزی عملیاتی، یا سامانه‌های پیوندخورده با به‌کارگیری قوه قهریه استفاده می‌شود، زبان مبهمِ ایمنی دیگر انتزاعی به گوش نمی‌رسد؛ این موضوع به مسئله‌ای درباره کنترل بدل می‌شود.

OpenAI چگونه به سوی پنتاگون حرکت کرد

چرخش OpenAI به‌سوی حوزه دفاعی در اوایل ۲۰۲۴ آشکار شد، زمانی که شرکت ممنوعیت کلی قدیمیِ استفاده برای “مقاصد نظامی و جنگی” را از زبان سیاست عمومی خود برداشت. OpenAI گفت همچنان استفاده‌هایی را که به افراد آسیب می‌زند، به توسعه سلاح‌ها می‌انجامد، یا نظارت را ممکن می‌سازد، ممنوع می‌کند، اما این تغییر آشکارا فضا را برای کارِ تأییدشده در امنیت ملی باز کرد.

تا ژوئن ۲۰۲۵، آن تغییر رسمی شد. OpenAI «OpenAI for Government» را راه‌اندازی کرد و یک برنامه آزمایشی با پنتاگون را از طریق دفتر رئیس امور دیجیتال و هوش مصنوعی (CDAO) اعلام نمود. شرکت موارد استفاده اولیه را کارکردهای پشتیبانی مانند مراقبت‌های سلامت، داده‌های تدارکات و خرید، و دفاع سایبری توصیف کرد.

به این ترتیب، OpenAI آشکارا به‌عنوان پیمانکار پنتاگون فعالیت می‌کرد.

Anthropic نیز وارد هوش مصنوعی دفاعی شد

Anthropic مسیر مشابهی را دنبال کرد، و همین است که چرا مناقشه بعدی بسیاری را غافلگیر کرد. در ژوئن ۲۰۲۵، شرکت مدل‌های “Claude Gov” را ویژه مشتریان امنیت ملی ایالات متحده معرفی کرد. Anthropic گفت این مدل‌ها از پیش در محیط‌های طبقه‌بندی‌شده فعال‌اند و برای نیازهای دولت سازگار شده‌اند.

یک ماه بعد، Anthropic قرارداد نمونه‌سازی ۲۰۰ میلیون دلاری خود با پنتاگون را اعلام کرد. شرکت گفت کلود به سازمان‌های دفاعی و اطلاعاتی کمک می‌کند داده‌های پیچیده را پردازش و تحلیل کنند، از جمله در جریان‌کارهای مأموریتی طبقه‌بندی‌شده. در اوت ۲۰۲۵، Anthropic با ایجاد یک شورای مشورتی امنیت ملی و بخش عمومی متشکل از چهره‌های ارشد دفاعی و اطلاعاتی، آن موقعیت را باز هم تقویت کرد.

پس پرسش کلیدی در ۲۰۲۶ هرگز این نبود که آیا Anthropic باید اصلاً با پنتاگون کار کند یا نه؛ پاسخ از پیش آری بود. پرسش دشوارتر این بود که دقیقاً چه کاربردهایی را همچنان رد خواهد کرد.

چرا سیاست هوش مصنوعی پنتاگون تهاجمی‌تر شد

در اواخر ۲۰۲۴، CDAO و واحد نوآوری دفاعی یک سلول توانمندی‌های سریع هوش مصنوعی تازه راه‌اندازی کردند تا پذیرش مدل‌های مرزی را در سراسر مأموریت‌های رزمی و سازمانی تسریع کنند. فهرست کاربردهای بالقوه گسترده بود: فرماندهی و کنترل، پشتیبانی از تصمیم‌گیری، برنامه‌ریزی عملیاتی، توسعه و آزمون سلاح‌ها، سامانه‌های خودمختار، اطلاعات، عملیات سایبری، و لجستیک.

آن فوریت در ژانویه ۲۰۲۶ حتی روشن‌تر شد، هنگامی که راهبرد هوش مصنوعی پنتاگون خواستار آن شد که وزارتخانه به یک نیروی رزمی “AI-first” بدل شود. این یادداشت بر دسترسی به جدیدترین مدل‌ها ظرف ۳۰ روز از انتشار عمومی تأکید کرد و زبان “هر استفاده قانونی” را در قراردادها ترویج نمود.

پنتاگون قواعد اخلاقی داشت، اما سرعت موازنه را تغییر داد

وزارت دفاع از سال ۲۰۲۰ اصول رسمی اخلاق هوش مصنوعی داشته است: مسئولانه، عادلانه، قابل رهگیری، قابل اتکا، و قابل حکمرانی. همچنین در ۲۰۲۳ دستورالعمل سلاح‌های خودمختار را به‌روزرسانی کرد تا تصریح کند چنین سامانه‌هایی باید امکان اعمال قضاوت انسانیِ مناسب بر به‌کارگیری قوه قهریه را فراهم کنند.

روی کاغذ، اینها محدودیت‌های جدی‌اند. اما راهبرد ۲۰۲۶ به‌سوی استقرار سریع‌تر، موانع کمتر، و انعطاف عملیاتی گسترده‌تر فشار آورد.

این امر توضیح می‌دهد چرا قراردادها تا این اندازه مهم شدند. وقتی قانون عمومی کلی باقی می‌ماند، قرارداد به میدان نبرد واقعی بدل می‌شود. یک شرکت می‌تواند تصمیم بگیرد آیا می‌خواهد محدودیت‌هایی فراتر از آنچه دولت از پیش قانونی می‌داند اعمال کند یا نه. پنتاگون هم می‌تواند تصمیم بگیرد آیا آن محدودیت‌ها تدابیر ایمنی مسئولانه‌اند یا قید و بندهای غیرقابل قبول.
در همین حوزه بود که OpenAI و Anthropic از هم جدا شدند.

گسست ۲۰۲۶: Anthropic پاسخ منفی می‌دهد

Anthropic در فوریه ۲۰۲۶ موضع خود را بسیار روشن بیان کرد. داریو آمودی، مدیرعامل، گفت شرکت معتقد است هوش مصنوعی برای دفاع از ایالات متحده و متحدانش مهم است و تأکید کرد که Anthropic پیش‌تر با پنتاگون و جامعه اطلاعاتی کار کرده است. او گفت از کلود برای تحلیل اطلاعات، مدل‌سازی و شبیه‌سازی، برنامه‌ریزی عملیاتی، و کارهای سایبری استفاده می‌شود.

اما او همچنین گفت Anthropic دو استثنای محدود را برنمی‌دارد: نظارت جمعی داخلی و سلاح‌های کاملاً خودمختار.

درباره نظارت، Anthropic استدلال کرد که هوش مصنوعی می‌تواند داده‌های پراکنده تجاری و عمومی را در مقیاسی عظیم به نمايه‌های جزئی در سطح جمعیت تبدیل کند. درباره سلاح‌های خودمختار، استدلال کرد که مدل‌های پیشرو کنونی برای هدف‌گیری مرگ‌وزندگی بدون حضور انسان در حلقه به‌اندازه کافی قابل اتکا نیستند.

رویترز گزارش داد که پنتاگون گفته است خواهان استفاده از هوش مصنوعی برای نظارت جمعی بر آمریکایی‌ها یا سلاح‌های کاملاً خودمختار نیست، اما همچنان اصرار داشت که ارتش باید بتواند از این مدل‌ها برای همه مقاصد قانونی استفاده کند. این تفاوت زبانی اندک به‌نظر می‌رسد؛ در عمل، شکافی در حکمرانی است.

Anthropic خواهان خطوط قرمز صریح در سطح فروشنده بود. پنتاگون می‌خواست حق تفسیر استفاده قانونی را نزد خود نگه دارد. وقتی Anthropic از برداشتن محدودیت‌هایش خودداری کرد، مناقشه به فهرست‌سیاه‌شدن و سپس دعوی حقوقی کشیده شد.

OpenAI موافقت می‌کند، اما با شرایطی متفاوت

در اعلامیه فوریه ۲۰۲۶، شرکت گفت توافقش با پنتاگون شامل سه خط قرمز عمده است: بدون نظارت جمعی داخلی، بدون هدایت سامانه‌های سلاح خودمختار، و بدون تصمیم‌های خودکارِ پرمخاطره.

OpenAI همچنین گفت این توافق صرفاً ابری است، به این معنا که شرکت کنترل پشته ایمنی را نزد خود حفظ می‌کند و به‌جای تحویل مدل‌های نامحدود، آن را اداره خواهد کرد. همچنین افزود که کارکنان دارای مجوز امنیتی OpenAI در جریان خواهند ماند و این توافق بر قانون جاری و سیاست‌های پنتاگون تکیه دارد.

موضع OpenAI بلندپروازانه بود. گفت پیمانش ریل‌های حفاظتی بیشتری نسبت به توافق‌های پیشینِ هوش مصنوعی طبقه‌بندی‌شده، از جمله توافق Anthropic، دارد و همزمان گفت نباید به Anthropic برچسبِ خطر زنجیره تأمین زده شود.

چرا منتقدان هنوز به ریل‌های حفاظتی OpenAI تردید دارند

منتقدان کاملاً قانع نشده‌اند. برخی تحلیلگران حقوقی می‌گویند Anthropic خواهان ممنوعیت‌های قراردادی صریحی بود که خود شرکت بتواند اجرا کند، در حالی که توافق OpenAI محدودیت‌های کلیدی را به قانون موجود و سیاست‌های پنتاگون گره می‌زند. در آن الگو، دولت همچنان بخش زیادی از قدرت تفسیر در زمان واقعی را نزد خود نگه می‌دارد.

گروه‌های آزادی‌های مدنی نیز استدلال می‌کنند اصطلاحاتی مانند “عامدانه”، “عمدی” یا “غیرمحدود” می‌تواند بیش از حد موسّع تفسیر شود، به‌ویژه در زمینه‌های نظارتی که دولت‌ها اغلب ادعا می‌کنند جمع‌آوری داده‌ها دارای مجوز قانونی است یا صرفاً اتفاقی است.

نکته بزرگ‌ترِ آنان دشوار است که نادیده گرفته شود: حقوق بنیادین حریم خصوصی نباید به مذاکرات خصوصی بین شرکت‌های بزرگ هوش مصنوعی و دولتِ امنیت ملی وابسته باشد.

چرا این جدال فراتر از حوزه دفاع اهمیت دارد

نخست، همان شرکت‌هایی که نسخه‌های امنیت ملیِ مدل‌های خود را می‌سازند، بازار هوش مصنوعی مصرفی را نیز شکل می‌دهند. اعتماد عمومی تا حدی به این بستگی دارد که آیا آن شرکت‌ها پیرامون نظارت و به‌کارگیری قوه قهریه خطوط معناداری حفظ می‌کنند یا نه.

دوم، این جدال مشکلی عمیق‌تر را آشکار می‌کند: برخی از بزرگ‌ترین تصمیم‌ها درباره ریل‌های حفاظتی هوش مصنوعی در جنگ از رهگذر قراردادها و اعلامیه‌های شرکتی اتخاذ می‌شود، نه از طریق قوانین عمومی روشن.

جنبه‌ای رقابتی نیز وجود دارد. پنتاگون فقط روی یک آزمایشگاه شرط نمی‌بندد. در ۲۰۲۵، OpenAI قرارداد نمونه‌سازی ۲۰۰ میلیون دلاری خود را گرفت و قراردادهای مشابهی به Anthropic، Google Public Sector و AIQ Phase، نهادی مرتبط با xAI، اعطا شد. این یعنی موضوع فراتر از یک شرکت است. نتیجه حقوقی و سیاستی می‌تواند نحوه کار چندین فروشنده هوش مصنوعی پیشرو با ارتش ایالات متحده و دولت‌های هم‌پیمان را شکل دهد.

گام بعدی چیست

در کوتاه‌مدت، نبرد حقوقی خواهد آزمود که آیا پنتاگون می‌تواند اختیارات مربوط به خطر زنجیره تأمین را برای مقابله با یک فروشنده هوش مصنوعی بر سر ریل‌های حفاظتی قراردادی به کار گیرد یا نه. این موضوع همین حالا هم پشتیبانی گسترده‌تری در بخش فناوری جلب کرده است، زیرا بسیاری آن را آزمونی می‌دانند برای اینکه آیا یک شرکت می‌تواند بدون مواجهه با تلافی، درباره محدودیت‌ها با دولت مذاکره کند یا نه.

در بلندمدت، بهترین پاسخ احتمالاً نه صرفاً از قرارداد OpenAI و نه صرفاً از امتناع Anthropic خواهد آمد. به قواعد عمومی نیرومندتری نیاز خواهد بود: حدود روشن‌تر بر نظارت، استانداردهای روشن‌تر برای کنترل انسانی در سامانه‌های سلاح، ممیزی بهتر، و گزارش‌دهی بهتر.

پنتاگون می‌گوید هوش مصنوعی‌ای می‌خواهد که مسئولانه، قابل اتکا و قابل حکمرانی باشد. OpenAI و Anthropic هر دو می‌گویند از به‌کارگیری ایمن و مسئولانه در امنیت ملی پشتیبانی می‌کنند. بخش دشوار این است که آن کلمات را به محدودیت‌هایی تبدیل کنیم که حتی زمانی که سرعت، محرمانگی و فشار نظامی در بالاترین حد هستند، پابرجا بمانند.

اکنون، این همان جدال واقعی است.

نوشته‌های دیگر نویسنده

مرورگر به عامل تبدیل می‌شود: چرا جست‌وجو شروع به عمل می‌کند
مقاله
مرورگر به عامل تبدیل می‌شود: چرا جست‌وجو شروع به عمل می‌کند
جست‌وجوی هوش مصنوعی در حال یادگیریِ عمل کردن داخل مرورگر است، نه فقط پاسخ دادن. در اینجا می‌بینید عامل‌های مرورگر چگونه سئو، ترافیک، حریم خصوصی و آیندهٔ وبِ باز را دگرگون می‌کنند.
پرونده Collien Fernandes و اوج‌گیری سوءاستفاده از دیپ‌فیک
مقاله
پرونده Collien Fernandes و اوج‌گیری سوءاستفاده از دیپ‌فیک
پروندهٔ کولین فرناندس نشان می‌دهد که چگونه سوءاستفاده از دیپ‌فیک، عکس‌های برهنهٔ جعلی و صداهای کلون‌شده می‌تواند زندگی‌ها را ویران کند — و چرا قانون‌گذاران برای جبران عقب‌ماندگی شتاب دارند.
رمزهای عبور بالاخره در حال کنار رفتن هستند: آیا هنوز به یک مدیر رمز عبور نیاز دارید؟
مقاله
رمزهای عبور بالاخره در حال کنار رفتن هستند: آیا هنوز به یک مدیر رمز عبور نیاز دارید؟
با گسترش کلیدهای عبور، گذرواژه‌ها کم‌کم به حاشیه می‌روند. در اینجا می‌آموزید که آیا در سال ۲۰۲۶ هنوز به یک مدیر گذرواژه نیاز دارید و چگونه گزینه‌ی مناسب را برای حساب‌هایتان انتخاب کنید.
از Copilot تا Cowork: چگونه دستیارهای هوش مصنوعی به همکاران تبدیل می‌شوند
مقاله
از Copilot تا Cowork: چگونه دستیارهای هوش مصنوعی به همکاران تبدیل می‌شوند
چگونه Copilot و سایر دستیارهای هوش مصنوعی به همکاران دیجیتال تبدیل می‌شوند که می‌توانند در سراسر ابزارهای محل کار تحقیق، برنامه‌ریزی و اقدام کنند.