هوش مصنوعی به جنگ میرود: رویارویی OpenAI، Anthropic و پنتاگون بر سر سازوکارهای ایمنی
OpenAI و Anthropic هر دو خواهان نقشی در امنیت ملی هستند. شکاف زمانی پدیدار شد که بحث از فروش مدلهای قدرتمند به این پرسش منتقل شد که چه کسی ریلهای حفاظتی هوش مصنوعی نظامی، حدود نظارت، و قوانین مربوط به سلاحهای خودمختار را کنترل میکند.
برای سالها، آزمایشگاههای بزرگ هوش مصنوعی خود را بهعنوان سازندگان ابزارهایی برای کار، پژوهش و زندگی روزمره معرفی میکردند. در سال ۲۰۲۶، آن تصویر با واقعیتی سختتر روبهرو شد. پس از آنکه پنتاگون بهدلیل محدودیتهایی که شرکت میخواست بر استفاده نظامی از کلود حفظ کند، آن را بهعنوان “خطر زنجیره تأمین” برچسب زد، Anthropic اقامه دعوا کرد. تقریباً در همان زمان، OpenAI از توافقی برای استقرار مدلهایش در شبکههای طبقهبندیشده پنتاگون خبر داد و گفت این توافق شامل خطوط قرمز سختگیرانه است. این امر یک موضوع سیاستی آرام را به مناقشهای عمومی درباره اخلاق هوش مصنوعی نظامی، نظارت جمعی داخلی، و اینکه زمانی که وعدههای ایمنی با قدرت دولت تلاقی میکنند چه کسی حرف آخر را میزند، تبدیل کرد.
هر دو شرکت از پیش در پروژههای دولت ایالات متحده و امنیت ملی مشارکت دارند و هر دو همچنان ایمنی را محور هویت خود توصیف میکنند. پس این روایتِ یک آزمایشگاه محتاط در برابر یک آزمایشگاه تهاجمی نیست. این داستانِ دو شرکتی است که هر دو خواهان کسبوکار دفاعیاند اما درباره اینکه یک شرکت خصوصی پس از ورود هوش مصنوعیاش به سامانههای نظامی باید چهقدر کنترل نزد خود نگه دارد، اختلاف نظر دارند.
ریلهای حفاظتی در هوش مصنوعی نظامی چه معنایی دارند
در این مناقشه، “ریلهای حفاظتی” شامل این میشود که مدل از انجام چه کارهایی سرباز میزند، قرارداد چه چیزهایی را مجاز میداند، سامانه کجا میتواند اجرا شود، آیا انسانها باید اقدامات حساس را تأیید کنند یا نه، چه کسی میتواند نحوه استفاده را ممیزی کند، و آیا فروشنده میتواند در صورت نقض قواعد، استقرار را متوقف کند یا خیر.
یک شرکت میتواند بگوید استفادههای زیانبار را ممنوع کرده است، اما پرسش واقعی این است که آن ممنوعیت زیر فشار چگونه عمل میکند. آیا محدودیت در متن قرارداد آمده است؟ آیا توسط خود مدل اجرا میشود؟ آیا دولت آن قاعده را در زمان واقعی تفسیر میکند، یا فروشنده همچنان حق وتو نزد خود نگه میدارد؟
وقتی از هوش مصنوعی برای تحلیل اطلاعات، عملیات سایبری، برنامهریزی عملیاتی، یا سامانههای پیوندخورده با بهکارگیری قوه قهریه استفاده میشود، زبان مبهمِ ایمنی دیگر انتزاعی به گوش نمیرسد؛ این موضوع به مسئلهای درباره کنترل بدل میشود.
OpenAI چگونه به سوی پنتاگون حرکت کرد
چرخش OpenAI بهسوی حوزه دفاعی در اوایل ۲۰۲۴ آشکار شد، زمانی که شرکت ممنوعیت کلی قدیمیِ استفاده برای “مقاصد نظامی و جنگی” را از زبان سیاست عمومی خود برداشت. OpenAI گفت همچنان استفادههایی را که به افراد آسیب میزند، به توسعه سلاحها میانجامد، یا نظارت را ممکن میسازد، ممنوع میکند، اما این تغییر آشکارا فضا را برای کارِ تأییدشده در امنیت ملی باز کرد.
تا ژوئن ۲۰۲۵، آن تغییر رسمی شد. OpenAI «OpenAI for Government» را راهاندازی کرد و یک برنامه آزمایشی با پنتاگون را از طریق دفتر رئیس امور دیجیتال و هوش مصنوعی (CDAO) اعلام نمود. شرکت موارد استفاده اولیه را کارکردهای پشتیبانی مانند مراقبتهای سلامت، دادههای تدارکات و خرید، و دفاع سایبری توصیف کرد.
به این ترتیب، OpenAI آشکارا بهعنوان پیمانکار پنتاگون فعالیت میکرد.
Anthropic نیز وارد هوش مصنوعی دفاعی شد
Anthropic مسیر مشابهی را دنبال کرد، و همین است که چرا مناقشه بعدی بسیاری را غافلگیر کرد. در ژوئن ۲۰۲۵، شرکت مدلهای “Claude Gov” را ویژه مشتریان امنیت ملی ایالات متحده معرفی کرد. Anthropic گفت این مدلها از پیش در محیطهای طبقهبندیشده فعالاند و برای نیازهای دولت سازگار شدهاند.
یک ماه بعد، Anthropic قرارداد نمونهسازی ۲۰۰ میلیون دلاری خود با پنتاگون را اعلام کرد. شرکت گفت کلود به سازمانهای دفاعی و اطلاعاتی کمک میکند دادههای پیچیده را پردازش و تحلیل کنند، از جمله در جریانکارهای مأموریتی طبقهبندیشده. در اوت ۲۰۲۵، Anthropic با ایجاد یک شورای مشورتی امنیت ملی و بخش عمومی متشکل از چهرههای ارشد دفاعی و اطلاعاتی، آن موقعیت را باز هم تقویت کرد.
پس پرسش کلیدی در ۲۰۲۶ هرگز این نبود که آیا Anthropic باید اصلاً با پنتاگون کار کند یا نه؛ پاسخ از پیش آری بود. پرسش دشوارتر این بود که دقیقاً چه کاربردهایی را همچنان رد خواهد کرد.
چرا سیاست هوش مصنوعی پنتاگون تهاجمیتر شد
در اواخر ۲۰۲۴، CDAO و واحد نوآوری دفاعی یک سلول توانمندیهای سریع هوش مصنوعی تازه راهاندازی کردند تا پذیرش مدلهای مرزی را در سراسر مأموریتهای رزمی و سازمانی تسریع کنند. فهرست کاربردهای بالقوه گسترده بود: فرماندهی و کنترل، پشتیبانی از تصمیمگیری، برنامهریزی عملیاتی، توسعه و آزمون سلاحها، سامانههای خودمختار، اطلاعات، عملیات سایبری، و لجستیک.
آن فوریت در ژانویه ۲۰۲۶ حتی روشنتر شد، هنگامی که راهبرد هوش مصنوعی پنتاگون خواستار آن شد که وزارتخانه به یک نیروی رزمی “AI-first” بدل شود. این یادداشت بر دسترسی به جدیدترین مدلها ظرف ۳۰ روز از انتشار عمومی تأکید کرد و زبان “هر استفاده قانونی” را در قراردادها ترویج نمود.
پنتاگون قواعد اخلاقی داشت، اما سرعت موازنه را تغییر داد
وزارت دفاع از سال ۲۰۲۰ اصول رسمی اخلاق هوش مصنوعی داشته است: مسئولانه، عادلانه، قابل رهگیری، قابل اتکا، و قابل حکمرانی. همچنین در ۲۰۲۳ دستورالعمل سلاحهای خودمختار را بهروزرسانی کرد تا تصریح کند چنین سامانههایی باید امکان اعمال قضاوت انسانیِ مناسب بر بهکارگیری قوه قهریه را فراهم کنند.
روی کاغذ، اینها محدودیتهای جدیاند. اما راهبرد ۲۰۲۶ بهسوی استقرار سریعتر، موانع کمتر، و انعطاف عملیاتی گستردهتر فشار آورد.
این امر توضیح میدهد چرا قراردادها تا این اندازه مهم شدند. وقتی قانون عمومی کلی باقی میماند، قرارداد به میدان نبرد واقعی بدل میشود. یک شرکت میتواند تصمیم بگیرد آیا میخواهد محدودیتهایی فراتر از آنچه دولت از پیش قانونی میداند اعمال کند یا نه. پنتاگون هم میتواند تصمیم بگیرد آیا آن محدودیتها تدابیر ایمنی مسئولانهاند یا قید و بندهای غیرقابل قبول.
در همین حوزه بود که OpenAI و Anthropic از هم جدا شدند.
گسست ۲۰۲۶: Anthropic پاسخ منفی میدهد
Anthropic در فوریه ۲۰۲۶ موضع خود را بسیار روشن بیان کرد. داریو آمودی، مدیرعامل، گفت شرکت معتقد است هوش مصنوعی برای دفاع از ایالات متحده و متحدانش مهم است و تأکید کرد که Anthropic پیشتر با پنتاگون و جامعه اطلاعاتی کار کرده است. او گفت از کلود برای تحلیل اطلاعات، مدلسازی و شبیهسازی، برنامهریزی عملیاتی، و کارهای سایبری استفاده میشود.
اما او همچنین گفت Anthropic دو استثنای محدود را برنمیدارد: نظارت جمعی داخلی و سلاحهای کاملاً خودمختار.
درباره نظارت، Anthropic استدلال کرد که هوش مصنوعی میتواند دادههای پراکنده تجاری و عمومی را در مقیاسی عظیم به نمايههای جزئی در سطح جمعیت تبدیل کند. درباره سلاحهای خودمختار، استدلال کرد که مدلهای پیشرو کنونی برای هدفگیری مرگوزندگی بدون حضور انسان در حلقه بهاندازه کافی قابل اتکا نیستند.
رویترز گزارش داد که پنتاگون گفته است خواهان استفاده از هوش مصنوعی برای نظارت جمعی بر آمریکاییها یا سلاحهای کاملاً خودمختار نیست، اما همچنان اصرار داشت که ارتش باید بتواند از این مدلها برای همه مقاصد قانونی استفاده کند. این تفاوت زبانی اندک بهنظر میرسد؛ در عمل، شکافی در حکمرانی است.
Anthropic خواهان خطوط قرمز صریح در سطح فروشنده بود. پنتاگون میخواست حق تفسیر استفاده قانونی را نزد خود نگه دارد. وقتی Anthropic از برداشتن محدودیتهایش خودداری کرد، مناقشه به فهرستسیاهشدن و سپس دعوی حقوقی کشیده شد.
OpenAI موافقت میکند، اما با شرایطی متفاوت
در اعلامیه فوریه ۲۰۲۶، شرکت گفت توافقش با پنتاگون شامل سه خط قرمز عمده است: بدون نظارت جمعی داخلی، بدون هدایت سامانههای سلاح خودمختار، و بدون تصمیمهای خودکارِ پرمخاطره.
OpenAI همچنین گفت این توافق صرفاً ابری است، به این معنا که شرکت کنترل پشته ایمنی را نزد خود حفظ میکند و بهجای تحویل مدلهای نامحدود، آن را اداره خواهد کرد. همچنین افزود که کارکنان دارای مجوز امنیتی OpenAI در جریان خواهند ماند و این توافق بر قانون جاری و سیاستهای پنتاگون تکیه دارد.
موضع OpenAI بلندپروازانه بود. گفت پیمانش ریلهای حفاظتی بیشتری نسبت به توافقهای پیشینِ هوش مصنوعی طبقهبندیشده، از جمله توافق Anthropic، دارد و همزمان گفت نباید به Anthropic برچسبِ خطر زنجیره تأمین زده شود.
چرا منتقدان هنوز به ریلهای حفاظتی OpenAI تردید دارند
منتقدان کاملاً قانع نشدهاند. برخی تحلیلگران حقوقی میگویند Anthropic خواهان ممنوعیتهای قراردادی صریحی بود که خود شرکت بتواند اجرا کند، در حالی که توافق OpenAI محدودیتهای کلیدی را به قانون موجود و سیاستهای پنتاگون گره میزند. در آن الگو، دولت همچنان بخش زیادی از قدرت تفسیر در زمان واقعی را نزد خود نگه میدارد.
گروههای آزادیهای مدنی نیز استدلال میکنند اصطلاحاتی مانند “عامدانه”، “عمدی” یا “غیرمحدود” میتواند بیش از حد موسّع تفسیر شود، بهویژه در زمینههای نظارتی که دولتها اغلب ادعا میکنند جمعآوری دادهها دارای مجوز قانونی است یا صرفاً اتفاقی است.
نکته بزرگترِ آنان دشوار است که نادیده گرفته شود: حقوق بنیادین حریم خصوصی نباید به مذاکرات خصوصی بین شرکتهای بزرگ هوش مصنوعی و دولتِ امنیت ملی وابسته باشد.
چرا این جدال فراتر از حوزه دفاع اهمیت دارد
نخست، همان شرکتهایی که نسخههای امنیت ملیِ مدلهای خود را میسازند، بازار هوش مصنوعی مصرفی را نیز شکل میدهند. اعتماد عمومی تا حدی به این بستگی دارد که آیا آن شرکتها پیرامون نظارت و بهکارگیری قوه قهریه خطوط معناداری حفظ میکنند یا نه.
دوم، این جدال مشکلی عمیقتر را آشکار میکند: برخی از بزرگترین تصمیمها درباره ریلهای حفاظتی هوش مصنوعی در جنگ از رهگذر قراردادها و اعلامیههای شرکتی اتخاذ میشود، نه از طریق قوانین عمومی روشن.
جنبهای رقابتی نیز وجود دارد. پنتاگون فقط روی یک آزمایشگاه شرط نمیبندد. در ۲۰۲۵، OpenAI قرارداد نمونهسازی ۲۰۰ میلیون دلاری خود را گرفت و قراردادهای مشابهی به Anthropic، Google Public Sector و AIQ Phase، نهادی مرتبط با xAI، اعطا شد. این یعنی موضوع فراتر از یک شرکت است. نتیجه حقوقی و سیاستی میتواند نحوه کار چندین فروشنده هوش مصنوعی پیشرو با ارتش ایالات متحده و دولتهای همپیمان را شکل دهد.
گام بعدی چیست
در کوتاهمدت، نبرد حقوقی خواهد آزمود که آیا پنتاگون میتواند اختیارات مربوط به خطر زنجیره تأمین را برای مقابله با یک فروشنده هوش مصنوعی بر سر ریلهای حفاظتی قراردادی به کار گیرد یا نه. این موضوع همین حالا هم پشتیبانی گستردهتری در بخش فناوری جلب کرده است، زیرا بسیاری آن را آزمونی میدانند برای اینکه آیا یک شرکت میتواند بدون مواجهه با تلافی، درباره محدودیتها با دولت مذاکره کند یا نه.
در بلندمدت، بهترین پاسخ احتمالاً نه صرفاً از قرارداد OpenAI و نه صرفاً از امتناع Anthropic خواهد آمد. به قواعد عمومی نیرومندتری نیاز خواهد بود: حدود روشنتر بر نظارت، استانداردهای روشنتر برای کنترل انسانی در سامانههای سلاح، ممیزی بهتر، و گزارشدهی بهتر.
پنتاگون میگوید هوش مصنوعیای میخواهد که مسئولانه، قابل اتکا و قابل حکمرانی باشد. OpenAI و Anthropic هر دو میگویند از بهکارگیری ایمن و مسئولانه در امنیت ملی پشتیبانی میکنند. بخش دشوار این است که آن کلمات را به محدودیتهایی تبدیل کنیم که حتی زمانی که سرعت، محرمانگی و فشار نظامی در بالاترین حد هستند، پابرجا بمانند.
اکنون، این همان جدال واقعی است.