في الأيام التي سبقت الهجمات الأميركية-الإسرائيلية على إيران نهاية الأسبوع، دخلت وزارة الدفاع الأميركية في مفاوضات متوترة مع شركة Anthropic بشأن آليات استخدام البنتاغون لتقنياتها، وفق ما كشفه موقع The Conversation. ويعكس هذا التطور تحوّلاً لافتاً في طبيعة العلاقة بين التكنولوجيا المتقدمة والمؤسسة العسكرية الأميركية، كما يطرح تساؤلات متزايدة حول مستقبل مفهوم “الذكاء الاصطناعي الأخلاقي” في ميادين القتال.
تمحور الخلاف حول طلب “أنثروبيك” ضمانات بألّا تُستخدم أنظمة “كلود” التابعة لها في مهام مثل المراقبة الداخلية داخل الولايات المتحدة أو تشغيل أسلحة ذاتية التشغيل من دون إشراف بشري. إلا أن الإدارة الأميركية ردّت بلهجة حازمة، إذ أصدر الرئيس Donald Trump توجيهات للوكالات الفيدرالية بوقف استخدام تقنيات الشركة، متهماً إياها بمحاولة فرض قيود سياسية وأيديولوجية على الجيش. وأكد أن إدارته لن تسمح لأي جهة خاصة بإملاء كيفية إدارة الحروب.
بعد ساعات، أعلنت شركة OpenAI، المطوِّرة لتطبيق ChatGPT، إبرام اتفاق خاص مع وزارة الدفاع يتيح للبنتاغون استخدام أدواتها في “جميع الأغراض القانونية”، من دون فرض قيود أخلاقية إضافية على الاستخدام العسكري.
تأتي هذه التطورات في سياق جدل أوسع حول تنظيم الذكاء الاصطناعي. فقد كانت إدارة ترمب قد منعت الولايات من سن تشريعات تنظيمية بدعوى حماية الابتكار. وفي المقابل، عزّز عدد من قادة شركات التكنولوجيا علاقاتهم بالإدارة، حيث قدّم بعضهم تبرعات بملايين الدولارات لصندوق تنصيب ترمب، من بينهم Sam Altman. كما رحّب مستثمرون بارزون مثل Marc Andreessen بإعادة انتخابه عام 2024، فيما برز Joe Lonsdale، الشريك المؤسس لشركة Palantir Technologies، كأحد الداعمين للرئيس، وقدّم Greg Brockman تبرعاً مالياً كبيراً لجهة مؤيدة له.
في المقابل، تبنّت “أنثروبيك” موقفاً أكثر تحفظاً، محذّرة من أن أنظمة الذكاء الاصطناعي الحالية قد تُستخدم بطريقة تقوّض الديمقراطية، ومؤكدة أن هذه التقنيات لا تزال غير موثوقة بما يكفي لتشغيل أسلحة ذاتية بالكامل من دون تدخل بشري.
وقد تركزت المخاوف الدولية خلال السنوات الأخيرة على أنظمة الأسلحة الفتّاكة ذاتية التشغيل، القادرة على اختيار أهدافها ومهاجمتها من دون تدخل مباشر. ففي عام 2020 أعلنت وزارة الدفاع الأميركية مبادئ لاستخدام الذكاء الاصطناعي تؤكد ضرورة أن يكون مسؤولاً ومنصفاً وقابلاً للتتبع وموثوقاً وخاضعاً للحوكمة، كما اعتمد NATO مبادئ مماثلة عام 2021، وتبعته بريطانيا لاحقاً.
يعتمد تطوير الذكاء الاصطناعي العسكري إلى حد كبير على شراكات مع القطاع الخاص، كما في مشروع Project Maven الذي أُطلق عام 2017 لتعزيز دمج التعلم الآلي في الاستخبارات العسكرية. وأشار مجلس الابتكار الدفاعي الأميركي إلى أن البيانات والخبرات المتخصصة في هذا المجال تتركز أساساً داخل الشركات التكنولوجية الكبرى، ما يعزز اعتماد الحكومة على القطاع الخاص.
من منظور أوسع، لا تقتصر مسألة أخلاقية الذكاء الاصطناعي على خصائص التكنولوجيا ذاتها، بل ترتبط أيضاً بالإطار الديمقراطي الذي تُستخدم ضمنه. فمفهوم “الشفافية الخوارزمية” يفترض وضوح القواعد التي تحكم اتخاذ القرارات، غير أن فعاليته تبقى رهناً بوجود بيئة تسمح بالنقاش العام والمساءلة. وفي هذا السياق، عُدّت رغبة “أنثروبيك” في مناقشة “الخطوط الحمراء” الأخلاقية تعبيراً عن مقاربة قائمة على الحوار.
إلا أن إدارة ترمب صنّفت الشركة على أنها تمثل “مخاطر على سلسلة التوريد”، ومنعت المتعاقدين مع الجيش الأميركي من التعامل معها، فيما أعلنت الشركة نيتها الطعن في القرار قضائياً نظراً لتداعياته الاقتصادية والسمعة المؤسسية. في المقابل، بدت “أوبن إيه آي” أكثر انفتاحاً على التعاون مع الحكومة ضمن الحدود القانونية، وإن واجهت انتقادات من بعض الأوساط.
يبقى السؤال مطروحاً حول مستقبل “الذكاء الاصطناعي الأخلاقي” في المجال العسكري، في ظل تراجع النظام الدولي القائم على القواعد وتزايد الترابط بين القرار السياسي وشركات التكنولوجيا. وحتى الآن، لم تتبدل المعادلات عملياً؛ فبعد ساعات من تصاعد الجدل، شنّت الولايات المتحدة هجوماً على إيران قيل إنه خُطِّط بمساعدة برمجيات متقدمة، في مشهد يعكس استمرار توظيف الذكاء الاصطناعي في العمليات العسكرية رغم الخلافات القائمة حول حدوده الأخلاقية.

