OpenAI و Anthropic من "السخرية" إلى الاختلاف: الحرب الأخلاقية مع وزارة الدفاع الأمريكية

في الآونة الأخيرة، كان هذان العملاقان في تكنولوجيا الذكاء الاصطناعي يتبادلان السخرية علنًا على منصات التواصل بهدف جذب المستخدمين. لكن عندما تدخل وزارة الدفاع الأمريكية، اضطرا فجأة إلى الوقوف معًا لمواجهة الضغط من البنتاغون. هذه المعركة ليست فقط حول المال أو العقود العسكرية، بل تتعلق بسؤال أساسي: كيف ينبغي استخدام الذكاء الاصطناعي عندما تكون الأمن القومي على المحك؟

من “السخرية” المتبادلة إلى التحالف: لماذا وقف شركتا الذكاء الاصطناعي معًا في مواجهة البنتاغون

في السابق، كانت الخلافات بين OpenAI وAnthropic حادة جدًا. تم تطوير Claude بواسطة فريق ترك OpenAI، وكانت المنافسة بين الشركتين شرسة للفوز بالمستخدمين والعملاء من الشركات والاستثمار. في سوبر بول العام الماضي، أنفقت Anthropic أموالًا للسخرية من ChatGPT الخاص بـOpenAI في إعلانات تلفزيونية. كانت تلك درجة التوتر بينهما.

لكن الوضع تغير عندما وقعت Anthropic عقدًا بقيمة 200 مليون دولار مع وزارة الدفاع الأمريكية. أصبح Claude أول نموذج ذكاء اصطناعي يُنشر على شبكة حاسوب سرية تابعة للجيش الأمريكي، لدعم تحليل المعلومات الاستخبارية وتخطيط المهام. ومع ذلك، وضعت Anthropic شرطين واضحين: عدم استخدام Claude للمراقبة الجماعية لمواطني الولايات المتحدة، وعدم تطويره ليصبح سلاحًا ذاتيًا بدون رقابة بشرية.

لم يقبل البنتاغون ذلك. كانت وجهة نظرهم بسيطة جدًا: عند شراء أداة، يستخدمونها بحرية، دون أن يوجههم أي شركة تكنولوجيا حول ما يجب عليهم فعله. وزير الدفاع هجسيت أعطى إنذارًا نهائيًا مباشرًا: يجب على Anthropic الموافقة قبل الساعة 5:01 مساءً يوم الجمعة، وإلا ستتحمل العواقب. رفض الرئيس التنفيذي لـAnthropic ذلك، وأعلن علنًا أنه رغم فهمه لأهمية الذكاء الاصطناعي للدفاع الوطني، إلا أنه في بعض الحالات، يمكن أن يضر بالقيم الديمقراطية. لا يمكننا قبول هذا الطلب بضمير حي.

رد فعل البنتاغون كان حادًا جدًا. نائبة وزير الدفاع إميل مايكل هاجمت الرئيس التنفيذي لـAnthropic على وسائل التواصل الاجتماعي، واصفًا إياه بالمخادع، وقال إنه يعاني من عقلية إنقاذ العالم، ويعبث بأمن البلاد.

ما حدث بعد ذلك كان غير متوقع. وقع أكثر من 400 موظف من OpenAI وGoogle رسالة مشتركة علنية بعنوان “لن نسمح بالانقسام”. أشارت الرسالة إلى أن البنتاغون يستغل استراتيجية “فرق تسد”، ويقوم بتدبير كل شركة ذكاء اصطناعي على حدة، ويحاول إقناع الشركات الأخرى بقبول الشروط التي رفضتها Anthropic.

كما أصدر الرئيس التنفيذي لـOpenAI رسالة داخلية لجميع الموظفين، أكد فيها أن الشركة تتشارك مع Anthropic في خطوط حمراء: عدم المراقبة الجماعية، وعدم تطوير أسلحة ذاتية تسبب الوفاة. قبل أيام قليلة، لم يكن بينهما أي تواصل، وفجأة، تحالفت الشركتان لمواجهة ضغط البنتاغون. هذا التضامن بدا كأنه انتصار للمبادئ الأخلاقية.

الخطوط الحمراء الأخلاقية: ثبات Anthropic، وتراجع OpenAI

لكن هذا التضامن لم يستمر سوى بضع ساعات. عندما انتهى الإنذار النهائي، رفضت Anthropic التوقيع. شركة تقدر قيمتها بـ380 مليار دولار مستعدة لمواجهة خطر إلغاء عقد بقيمة 200 مليون دولار من وزارة الدفاع الأمريكية.

رد فعل واشنطن لم يكن تجاريًا. بعد ساعة واحدة، نشر ترامب على Truth Social واصفًا Anthropic بـ"الحمقى اليساريين"، وقال إنهم يحاولون وضع أنفسهم فوق الدستور، ويعبثون بحياة الجنود الأمريكيين. وطالب جميع الوكالات الفيدرالية فورًا بالتوقف عن استخدام تكنولوجيا Anthropic.

ثم وضع وزير الدفاع هجسيت Anthropic في قائمة “مخاطر سلسلة التوريد الأمنية” — وهي تسمية غالبًا ما تُمنح لشركات مثل Huawei. المعنى واضح: جميع المقاولين الذين يعملون مع الجيش الأمريكي ممنوعون من استخدام منتجات Anthropic. أعلنت Anthropic أنها ستقاضي.

وفي تلك الليلة، وقعت OpenAI — التي كانت تتخذ موقفًا مماثلاً سابقًا — على اتفاق مع البنتاغون. السؤال هو: ماذا حصل لـOpenAI؟

أولًا، احتلت مكانة احتكارية: أصبحت المزود الحصري للذكاء الاصطناعي لشبكة الجيش الأمريكي السرية بعد استبعاد Claude. لكن OpenAI وضعت ثلاثة شروط على البنتاغون: عدم إجراء مراقبة جماعية، وعدم تطوير أسلحة ذاتية، وأن تتدخل البشرية في جميع القرارات ذات المخاطر العالية.

قالت وزارة الدفاع الأمريكية إنها توافق على ذلك.

بالضبط — الشروط التي تردد Anthropic في قبولها لأسابيع، لكن عندما قدمتها شركة أخرى، تم التفاوض عليها خلال أيام. ومع ذلك، فإن الحلول ليست متطابقة تمامًا. أضافت Anthropic طبقة حماية أخرى، معتبرة أن القانون الحالي لا يواكب قدرات الذكاء الاصطناعي. على سبيل المثال، يمكن للذكاء الاصطناعي بشكل قانوني شراء وتجميع بيانات تحديد المواقع، وسجل التصفح، ومعلومات وسائل التواصل الاجتماعي الخاصة بك، مما يؤدي إلى نتائج تعادل المراقبة، لكن كل خطوة لا تنتهك القانون. ترى Anthropic أن مجرد كتابة عبارة “غير مراقب” غير كافية، ويجب سد الثغرات القانونية هذه.

أما OpenAI، فلم تصمد أمام هذا الموقف. قبلت برأي البنتاغون أن القانون الحالي كافٍ. لكن إذا اعتقدت أن الأمر مجرد اختلاف في الشروط، فأنت مخطئ. وراء الأرقام والعقود، هناك معركة أيديولوجية.

ديفيد ساكس، “إمبراطور الذكاء الاصطناعي” في البيت الأبيض، انتقد علنًا Anthropic لتطويرها “ذكاء اصطناعي واعي” — يسعى لتحقيق الصواب السياسي بدلًا من الأداء. وقال مسؤول رفيع في البنتاغون لوسائل الإعلام إن مشكلة Anthropic تتعلق بالهيمنة الأيديولوجية. شركة xAI التي أسسها إيلون ماسك، المنافس المباشر لـAnthropic، تهاجم الشركة باستمرار على X، وتزعم أن Anthropic “تكره الحضارة الغربية”. ومن الجدير بالذكر أن الرئيس التنفيذي لـAnthropic لم يحضر حفل تنصيب ترامب العام الماضي، بينما حضر رئيس شركة OpenAI.

تأثير “قتل الغراب وتحذير الطائر” ومستقبل شركات الذكاء الاصطناعي

إذن، لنلخص ما حدث. نفس المبادئ الأخلاقية، نفس الخطوط الحمراء، Anthropic أضافت طبقة حماية أخرى، وأظهرت موقفًا خاطئًا، وُصفت بأنها تهديد للأمن القومي الأمريكي يساوي تهديد Huawei. أما OpenAI، ففقدت طبقة، وأحسنت علاقاتها مع الحكومة، وحصلت على عقد استغلالي.

هل هو انتصار للمبادئ أم مجرد تقييم لها؟

العقود العسكرية التي كانت محاطة بالشكوك ليست الأولى. في 2018، وقع أكثر من 400 موظف في Google عريضة، واستقال أكثر من عشرة احتجاجًا على مشاركة الشركة في مشروع Maven — وهو مشروع تابع للبنتاغون يستخدم الذكاء الاصطناعي لتحليل فيديوهات الطائرات بدون طيار لمساعدة الجيش على التعرف على الأهداف بسرعة. في النهاية، انسحبت Google، ولم تجدد العقد، فقط غادرت. فاز الموظفون.

مرّ الآن ثمانية أعوام. عادت نفس الخلافات للظهور مرة أخرى. لكن هذه المرة، تغيرت قواعد اللعبة تمامًا.

قال لي أحد مسؤولي شركة أمريكية: يمكنني العمل مع الجيش، لكن هناك أمرين لا يمكنني فعلهما. رد فعل الحكومة الأمريكية كان استبعادها من النظام الفيدرالي بأكمله. تسمية “مخاطر سلسلة التوريد الأمنية” تضر أكثر من مجرد خسارة عقد بقيمة 200 مليون دولار. إيرادات Anthropic هذا العام حوالي 14 مليار دولار، لذلك هذا العقد لا يمثل شيئًا كبيرًا. لكن هذه التسمية تعني أن أي شركة تتعامل مع الجيش الأمريكي لا يُسمح لها باستخدام Claude.

هذه الشركات ليست مضطرة للموافقة على وجهة نظر البنتاغون. عليها فقط تقييم المخاطر ببساطة: استمرار استخدام Claude قد يُفقدها العقود الحكومية؛ أو الانتقال لنموذج آخر، ولن يكون هناك مشكلة. الاختيار بسيط جدًا.

هذه هي الإشارة الحقيقية للمسألة. هل ستتحمل Anthropic ذلك أم لا؟ الأهم هو أن الشركة التالية ستجرؤ على ذلك أم لا. ستنظر في نتائج هذا الأمر، وتقييم تكلفة التمسك بالمبادئ الأخلاقية، ثم تتخذ قرارًا منطقيًا من الناحية الاقتصادية. تأثير “قتل الغراب وتحذير الطائر” — إقصاء شركة واحدة لتحذير أخرى — هو الاستراتيجية الفعلية التي تتطور.

عند النظر إلى تلك الصورة في الهند، حيث يرفع الجميع أيديهم عاليا، لكن اثنين منهم يظل كل واحد منهما قبضة يد مشدودة، ربما يكون ذلك هو الوضع الطبيعي الحقيقي. المبادئ الأخلاقية لشركات الذكاء الاصطناعي قد تكون متشابهة، لكن الأيدي لا يجب أن تكون دائمًا متشابكة — خاصة عندما يدفع السياسيون للسخرية والمعاقبة لمن لا يلتزم.

TRUMP2.96%
XAI1.62%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت