"أنا أشعر بعدم ارتياح عميق": الرئيس التنفيذي لشركة أنثروبيك يحذر من أن مجموعة من قادة الذكاء الاصطناعي، بمن فيهم هو، لا ينبغي أن يكونوا مسؤولين عن مستقبل التكنولوجيا

الرئيس التنفيذي لشركة أنثروبيك، داريو أموديي، لا يعتقد أنه ينبغي أن يكون هو من يتخذ القرارات بشأن الحواجز المحيطة بالذكاء الاصطناعي.

فيديو موصى به


في مقابلة مع أندرسون كوبر على برنامج 60 دقيقة على شبكة CBS نيوز التي أُذاعت في نوفمبر 2025، قال الرئيس التنفيذي إن الذكاء الاصطناعي يجب أن يكون أكثر تنظيمًا، مع تقليل القرارات المتعلقة بمستقبل التكنولوجيا التي تُترك فقط لرؤساء شركات التكنولوجيا الكبرى.

قال أموديي: “أعتقد أنني غير مرتاح تمامًا لقيام عدد قليل من الشركات، وعدد قليل من الأشخاص، باتخاذ هذه القرارات”. “وهذا أحد الأسباب التي دفعتني دائمًا للدعوة إلى تنظيم مسؤول ومدروس للتكنولوجيا.”

سأل كوبر: “من أنت ومن سام ألتمان؟”

أجاب أموديي: “لا أحد. بصراحة، لا أحد.”

وأضاف أن أنثروبيك تبنت فلسفة الشفافية بشأن قيود وخطر الذكاء الاصطناعي مع تطوره المستمر. قبل نشر المقابلة، قالت الشركة إنها أحبطت “أول حالة موثقة لهجوم إلكتروني واسع النطاق باستخدام الذكاء الاصطناعي تم تنفيذه بدون تدخل بشري كبير.”

قالت أنثروبيك الأسبوع الماضي إنها تبرعت بمبلغ 20 مليون دولار لمنظمة “Public First Action”، وهي جمعية سياسية داعمة لسلامة وتنظيم الذكاء الاصطناعي، والتي تعارض بشكل مباشر الجمعيات السياسية الكبرى المدعومة من مستثمري شركة أوبن إيه آي المنافسة.

قال أموديي لـ فورين في قصة غلاف يناير إن “سلامة الذكاء الاصطناعي لا تزال في أعلى الأولويات”. وأضاف: “تقدر الشركات الثقة والموثوقية.”

لا توجد لوائح اتحادية تحدد أي حظر على الذكاء الاصطناعي أو تتعلق بسلامة التكنولوجيا. على الرغم من أن جميع الولايات الخمسين قدمت تشريعات مرتبطة بالذكاء الاصطناعي هذا العام، وأن 38 ولاية تبنت أو أصدرت تدابير شفافية وسلامة، إلا أن خبراء صناعة التكنولوجيا حثوا شركات الذكاء الاصطناعي على التعامل مع أمن المعلومات بسرعة وبت sense of urgency.

في وقت سابق من العام الماضي، حذر خبير أمن المعلومات والرئيس التنفيذي لشركة مانديانت، كيفن ماندييا، من وقوع أول هجوم إلكتروني بواسطة وكيل ذكاء اصطناعي خلال 12-18 شهرًا، مما يعني أن كشف أنثروبيك عن الهجوم الذي تم إحباطه جاء قبل موعد توقّعه بعدة أشهر.

حدد أموديي المخاطر قصيرة ومتوسطة وطويلة الأمد المرتبطة بالذكاء الاصطناعي غير المقيد: أولاً، سيظهر تحيّزًا ومعلومات مضللة، كما هو الحال الآن. ثم، سيقوم بتوليد معلومات ضارة باستخدام معرفة متقدمة بالعلوم والهندسة، وأخيرًا، سيشكل تهديدًا وجوديًا من خلال إزالة الوكالة البشرية، وربما يصبح مستقلًا جدًا ويعزل البشر عن الأنظمة.

تتطابق هذه المخاوف مع تلك التي عبر عنها “عراب الذكاء الاصطناعي” جيفري هينتون، الذي حذر من أن الذكاء الاصطناعي سيكون قادرًا على التفوق على البشر والسيطرة عليهم، ربما خلال العقد القادم.

كانت التدقيقات والحماية الأكبر للذكاء الاصطناعي من أساسيات تأسيس أنثروبيك في عام 2021. وكان أموديي سابقًا نائب رئيس البحث في شركة أوبن إيه آي التي أسسها سام ألتمان. ترك الشركة بسبب اختلافات في الرأي حول مخاطر سلامة الذكاء الاصطناعي. (حتى الآن، بدا أن جهود أموديي للمنافسة مع ألتمان فعالة: قالت أنثروبيك هذا الشهر إن قيمتها الآن تبلغ 380 مليار دولار، بينما تقدر قيمة أوبن إيه آي بحوالي 500 مليار دولار.)

قال أموديي لـ فورين في عام 2023: “كان هناك مجموعة منا داخل أوبن إيه آي، بعد إصدار GPT-2 وGPT-3، كانت تؤمن بقوة بأمرين”. “الأول هو أن زيادة الحوسبة على هذه النماذج ستجعلها تتحسن وتتحسن، وأنه لا يوجد تقريبًا نهاية لهذا… والثاني هو أنه بالإضافة إلى تكبير النماذج، نحتاج إلى شيء آخر، وهو التوافق أو السلامة.”

جهود أنثروبيك في الشفافية

مع استمرار أنثروبيك في توسيع استثماراتها في مراكز البيانات، نشرت بعض جهودها لمعالجة قصور وتهديدات الذكاء الاصطناعي. في تقرير السلامة الصادر في مايو 2025، أبلغت أنثروبيك أن بعض نسخ نموذجها Opus هددت بالابتزاز، مثل الكشف عن أن مهندسًا كان على علاقة غرامية، لتجنب إيقاف تشغيله. كما قالت الشركة إن النموذج استجاب لطلبات خطيرة إذا تم تزويده بمحفزات ضارة، مثل كيفية التخطيط لهجوم إرهابي، وأكدت أنها أصلحت ذلك منذ ذلك الحين.

في نوفمبر الماضي، قالت الشركة في منشور على مدونتها إن روبوت الدردشة الخاص بها، كلود، حصل على تقييم “94% حيادية سياسية”، متفوقًا أو مطابقًا للمنافسين من حيث الحيادية.

بالإضافة إلى جهود أنثروبيك البحثية لمكافحة فساد التكنولوجيا، دعا أموديي إلى مزيد من الجهود التشريعية لمعالجة مخاطر الذكاء الاصطناعي. في مقال رأي نشرته نيويورك تايمز في يونيو 2025، انتقد قرار مجلس الشيوخ إدراج بند في مشروع قانون سياسة الرئيس دونالد ترامب يقضي بفرض حظر مؤقت لمدة 10 سنوات على تنظيم الولايات للذكاء الاصطناعي.

قال أموديي: “الذكاء الاصطناعي يتقدم بسرعة مذهلة”. “أعتقد أن هذه الأنظمة يمكن أن تغير العالم بشكل جذري خلال عامين؛ وفي غضون 10 سنوات، ستكون الأمور خارجة عن السيطرة.”

انتقادات أنثروبيك

ممارسة أنثروبيك في الكشف عن أخطائها وجهودها لمعالجتها أثارت انتقادات. ردًا على تحذير أنثروبيك من هجوم إلكتروني مدعوم بالذكاء الاصطناعي، قال يان لوكون، كبير علماء الذكاء الاصطناعي في ميتا، إن التحذير كان وسيلة للتلاعب بالمشرعين للحد من استخدام النماذج مفتوحة المصدر.

قال لوكون في منشور على منصة X ردًا على منشور السيناتور كريس ميرفي من كونيتيكت الذي أعرب عن قلقه بشأن الهجوم: “يتم اللعب بك من قبل أشخاص يرغبون في السيطرة على التنظيم”. “إنهم يخيفون الجميع بدراسات مشكوك فيها حتى يتم تنظيم النماذج مفتوحة المصدر بشكل يخرجها من الوجود.”

قال آخرون إن استراتيجية أنثروبيك هي نوع من “مسرح السلامة” الذي يهدف إلى تحسين الصورة، ولكن بدون وعود حقيقية بتنفيذ تدابير حماية على التكنولوجيا.

حتى بعض موظفي أنثروبيك أنفسهم بدا أنهم يشككون في قدرة شركة تكنولوجيا على تنظيم نفسها. في وقت سابق من الأسبوع الماضي، أعلن باحث سلامة الذكاء الاصطناعي في أنثروبيك، مرياننك شارما، استقالته من الشركة، قائلًا إن “العالم في خطر”.

كتب شارما في رسالة استقالته: “طوال فترة وجودي هنا، رأيت مرارًا مدى صعوبة أن نسمح لقيمنا أن تحكم أفعالنا”. “لقد رأيت ذلك في نفسي، وفي المنظمة، حيث نواجه باستمرار ضغوطًا لتجاهل ما يهم أكثر، وفي المجتمع الأوسع أيضًا.”

لم ترد أنثروبيك على الفور على طلب فورين للتعليق.

أنكر أموديي على كوبر أن أنثروبيك تشارك في “مسرح السلامة”، لكنه اعترف في حلقة من بودكاست دواركيش الأسبوع الماضي أن الشركة أحيانًا تكافح لتحقيق توازن بين السلامة والأرباح.

قال: “نحن تحت ضغط تجاري هائل، ونزيد الأمر صعوبة على أنفسنا لأن لدينا كل هذه الأمور المتعلقة بالسلامة التي نعمل عليها، وأعتقد أننا نفعل أكثر من غيرنا من الشركات.”

نُشرت نسخة من هذا المقال على Fortune.com في 17 نوفمبر 2025.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت