فتحت خطوة وزارة الدفاع الأمريكية بتصنيف أنثروبيك «مخاطر على سلسلة التوريد» نقاشاً غير مسبوق حول من يضع حدود استخدام الذكاء الاصطناعي في الحرب والأمن الداخلي. القرار، الذي يضع الشركة عملياً على لائحة سوداء وطنية ويلزم المتعاقدين بإثبات خلو أنظمتهم من نموذج «كلود»، جاء في سابقة نادراً ما طالت شركات محلية، بعد أن كان هذا الإجراء موجهاً غالباً إلى كيانات أجنبية تُعد تهديداً للأمن القومي. تفاصيل التصنيف وأبعاده نقلتها وكالات وصحف كبرى مثل تقرير لرويترز عن دعوى أنثروبيك ضد البنتاغون بسبب القيود المفروضة على استخدامات الذكاء الاصطناعي، وتغطية من بي بي سي عن أثر القرار على منظومة التوريد الدفاعي، وتحليل من لو موند يوضح كيفية إلزام المتعهدين بإزالة «كلود» من مشاريعهم المرتبطة بالبنتاغون.
جذر الخلاف ظهر حين رفضت الشركة منح الوزارة ترخيصاً مفتوحاً «لكل الأغراض المشروعة» وفق القانون الأمريكي، مُصرة على استثناءين واضحين: عدم تشغيل تقنياتها في أسلحة ذاتية التشغيل بالكامل، وعدم استخدامها في مراقبة جماعية داخل الولايات المتحدة. هذا الموقف، الذي تطرقت إليه منصات تحليلية وأكاديمية، اعتبرته جهات في البنتاغون تقييداً غير مقبول لصلاحيات الدولة، بينما ترى أنثروبيك أنه جزء من حوكمة مسؤولة تضع خطوطاً أخلاقية لاستخدام الذكاء الاصطناعي في مجالي التسليح والمراقبة.
رد الشركة جاء عبر مسارين قضائيين متوازيين: دعوى أمام محكمة فيدرالية في كاليفورنيا وأخرى لدى محكمة الاستئناف في مقاطعة كولومبيا، تتهم فيهما وزارة الدفاع باستخدام أداة «مخاطر سلسلة التوريد» لمعاقبتها على أساس قيمي يتعلق بسياسات الاستخدام. وتقول أنثروبيك إن التصنيف يهدد عقوداً قائمة ومحتملة بمئات الملايين من الدولارات، ويؤثر في سمعتها وعلاقاتها مع الشركاء الذين بدأ بعضهم في إعادة تقييم التعاون التقني معها. تغطت هذه التطورات في تقارير مطولة لكل من نيويورك تايمز وبزنس إنسايدر.
من جانبها، تؤكد وزارة الدفاع أن التصنيف «ساري المفعول فوراً» لحماية الأنظمة الحساسة من مورّد قد يفرض قيوداً على المتعاقدين أو يقطع عنهم تكنولوجيا يعتمد عليها الجيش. ويفرض القرار على شركات الدفاع التي تستخدم «كلود» في مشاريع مرتبطة بالبنتاغون إزالة هذا المكوّن أو تحمل مخاطر فقدان العقود، ما يجعل أثره يمتد إلى شبكة واسعة من سلسلة التوريد. هذا المنطق المؤسسي وثّقته تقارير CBS وبي بي سي، إلى جانب قراءة لو موند للانعكاسات العملية على البرامج الدفاعية.
توضح خلفية النزاع أن أنثروبيك، أحد اللاعبين البارزين في سباق النماذج اللغوية المتقدمة، تبنّت سياسة تمنع تطبيقاتها في مجالين محددين: الأسلحة المستقلة بالكامل والمراقبة الشاملة واسعة النطاق. تستند هذه السياسة إلى تقدير بأن الأنظمة الحالية غير موثوقة لاتخاذ قرارات حياة أو موت من دون إشراف بشري، وأن دمج بيانات المواطنين على نطاق واسع عبر خوارزميات قوية يثير إشكالات جوهرية في الخصوصية والحقوق الدستورية. نُوقشت هذه الدوافع في تحليلات الجزيرة وThe Conversation، كما ظهرت إشارات مبكرة لموقف الشركة في نقاشات مهنية منشورة على لينكدإن الجزيرة.
تجادل الإدارة الأمريكية بأن قبول مثل هذه «الخطوط الحمراء» الذاتية يخلق سابقة تمكّن شركات التكنولوجيا من التأثير مباشرة في قرارات الأمن القومي، خصوصاً في أوقات الأزمات. وتستند في ذلك إلى أن التشريعات القائمة تحدد ما هو مسموح ومحظور في المراقبة والتسليح، وأن فرض قيود إضافية من المورّدين قد يعرقل التعبئة التقنية عند الحاجة. تناولت NPR وCBS هذه الحجج في تقارير حول تداعيات وسم الشركة كخطر على سلسلة التوريد.
ورغم أن النزاع يدور في ساحات المحاكم، فإنه يكشف سؤالاً أعمق عن السلطة التي تحدد قواعد استخدام الذكاء الاصطناعي في الدفاع والأمن الداخلي: هل هي القوانين والعقود الحكومية أم سياسات الاستخدام والحوكمة الذاتية لدى الشركات المطورة؟ يأتي ذلك بينما تتسارع وتيرة إدماج النماذج اللغوية وأنظمة الاستدلال في التخطيط العملياتي، وتحليل الاستخبارات، وإدارة أنظمة الدفاع، ما يمنح قلة من المختبرات القادرة على تطوير هذه النماذج قوة تفاوضية كبيرة تجاه المؤسسات العسكرية والأمنية.
في المرافعات القضائية، تطرح أنثروبيك القضية بوصفها اختباراً لحرية التعبير وحرية التعاقد في سياق تقنيات ناشئة، إذ تعتبر سياسات التقييد تعبيراً مؤسسياً محمياً دستورياً، بينما ترى الحكومة أن رفض إتاحة التقنية لتطبيقات يجيزها القانون يعرقل سياسة الأمن القومي. تغطي نيويورك تايمز ووكالة رويترز مسار هذا السجال القانوني وتأثير نتيجته المحتملة على علاقة المختبرات بالجيش في الولايات المتحدة وحلفائها الذين يراقبون التطورات عن كثب.