في لحظة تكشف الكثير عن طبيعة الصراع الدائر حول، أعلن البيت الأبيض عن اجتماع "مثمر وبنّاء" مع رئيس، رغم أن الأخيرة تخوض نزاعاً قانونياً هذا التطور لا يمكن قراءته كحدث تقني عابر، بل كمؤشر على تحوّل أعمق: الذكاء الاصطناعي بات ساحة صراع بين الاجتماع جاء بعد أيام من إطلاق الشركة نموذجها الجديد "Claude Mythos"، الذي تقول إنه قادر على التفوق على البشر في بعض مهام الأمن السيبراني، بما في ذلك اكتشاف الثغرات وبينما لا يزال الوصول إلى هذه الأداة محدوداً، فإن ما تمثّله يتجاوز قدراتها التقنية: إنها وبحسب أكسيوس، التقى الرئيس التنفيذي للشركة داريو أمودي مسؤولين بارزين في الإدارة الأميركية، في وقت لا تزال فيه العلاقة متوترة، خصوصاً بعد أن وصف الرئيس دونالد ترامب الشركة سابقاً بعبارات حادة، ودعا إلى وقف التعامل معها
من الصراع إلى الضرورةرغم هذا التصعيد السياسي، يعكس اللقاء واقعاً مغايراً: لا تستطيع الحكومات تجاهل هذه التكنولوجيا، فالبيت الأبيض نفسه أقرّ بأن النقاش تناول "تحقيق التوازن بين الابتكار والسلامة"، وهي عبارة تختصر المعضلة الأساسية هذا التناقض يظهر بوضوح في النزاع القائم بين أنثروبيك والوزارة الأميركية، بعد تصنيف الشركة كـ"خطر على سلسلة ورغم ذلك، لا تزال أدواتها مستخدمة داخل بعض الوكالات الحكومية، ما يعكس ازدواجية واضحة بين الخطاب السياسي والحاجة الفعلية
الابتكار أم القيم؟في هذا السياق، يرى الخبير في الإعلام الرقمي والذكاء الاصطناعي أمين أبو يحيى، أن جوهر القضية ويقول إن الشركات التي "تقدّم القيم على الأرباح قصيرة المدى هي وحدها القادرة على بناء ثقة حقيقية مع ويشير إلى أن الضغوط الحكومية على شركات الذكاء الاصطناعي "حقيقية ومستمرة"، لكن الاستجابة له لا تكون وبرأيه، فإن رفض بعض الشركات منح الحكومات وصولاً غير مقيّد إلى تقنياتها يرسل رسالة وهذا الموقف، رغم كلفته التجارية، يشكّل جزءاً من هوية هذه الشركات، وليس مجرد قرار تقني
توتر بنيوي في قلب السياسةالنزاع بين أنثروبيك والبنتاغون، كما يوضح أبو يحيى، يعكس سؤالاً أكبر: هل الذكاء الاصطناعي أداة سيادية يجب أن تخضع بالكامل للدولة، أم تقنية مدنية تحكمها السوق والأخلاقيات؟الإجابة على هذا السؤال، بحسب قوله، ستحدد شكل المنافسة العالمية في السنوات المقبلة، خصوصاً في ظل سباق ويضيف أن هذا التوتر قد يبدو عائقاً، لكنه في الواقع قد يتحول إلى محرّك للابتكار المسؤول
المخاطر العسكرية: الخط الأحمرلكن التحدي الأخطر، وفق أبو يحيى، يكمن في الاستخدام فحين يعتمد قرار عسكري على توصية خوارزمية من دون مراجعة بشرية كافية، ويحذّر من أن نماذج مثل "كلود" لم تُصمّم أصلاً لاتخاذ قرارات قتالية، وأن استخدامها في هذا السياق قد يؤدي إلى كما ينتقد مقاربة إدارة دونالد ترامب، التي تتعامل مع الذكاء الاصطناعي "كأداة قوة لا كتقنية تحتاج إلى تنظيم"، معتبراً أن هذا النهج قد يؤدي في المحصلة، تكشف قضية أنثروبيك عن مفارقة أساسية: التكنولوجيا التي تخشاها الحكومات هي نفسها وبينما يتقدم الذكاء الاصطناعي بسرعة غير مسبوقة، يبقى السؤال الأهم: هل سيتمكن العالم من وضع قواعد واضحة تضبط استخدامه حتّى من قبل الحكومات؟ الإجابة، على ما يبدو، لا تزال قيد التفاوض في أروقة السياسة، ومختبرات الشركات، وعلى حدود الأخلاق