الذكاء الاصطناعي في أوروبا: ماذا قد يعني قانون الذكاء الاصطناعي

تصوير بواسطة مايكو أوموريم على Unsplash


لا تزال لائحة الذكاء الاصطناعي مجرد مسودة، لكن المستثمرين وأصحاب الأعمال في الاتحاد الأوروبي يشعرون بالقلق بالفعل بشأن النتائج المحتملة.

هل ستمنع الاتحاد الأوروبي من أن يكون منافسًا قيمًا على الساحة العالمية؟

وفقًا للجهات التنظيمية، الأمر ليس كذلك. لكن دعونا نرى ما يحدث.

اللائحة وال تقييم المخاطر

تقسم لائحة الذكاء الاصطناعي المخاطر التي يفرضها الذكاء الاصطناعي إلى فئات مختلفة، ولكن قبل ذلك، تضيق التعريف للذكاء الاصطناعي ليشمل فقط الأنظمة المبنية على التعلم الآلي والمنطق.

هذا لا يهدف فقط إلى تمييز أنظمة الذكاء الاصطناعي عن البرمجيات الأبسط، بل يساعدنا أيضًا على فهم سبب رغبة الاتحاد الأوروبي في تصنيف المخاطر.

يُصنف استخدامات الذكاء الاصطناعي إلى مخاطر غير مقبولة، ومخاطر عالية، ومخاطر منخفضة أو بسيطة. تعتبر الممارسات التي تقع تحت فئة المخاطر غير المقبولة محظورة.

تشمل هذه الممارسات:

  • الممارسات التي تتضمن تقنيات تعمل خارج وعي الإنسان،
  • الممارسات التي تسعى لاستغلال أجزاء ضعيفة من السكان،
  • أنظمة تعتمد على الذكاء الاصطناعي لتصنيف الأشخاص وفقًا لخصائصهم الشخصية أو سلوكياتهم،
  • أنظمة تعتمد على التعرف البيومتري في الأماكن العامة.

هناك بعض الحالات التي يجب اعتبارها مشابهة لبعض الممارسات المدرجة ضمن الأنشطة المحظورة، وتقع ضمن فئة “المخاطر العالية”.

وتشمل هذه الأنظمة المستخدمة لتوظيف العمال أو لتقييم وتحليل الجدارة الائتمانية للأشخاص (وقد تكون خطرة على التكنولوجيا المالية). في هذه الحالات، يجب على جميع الشركات التي تخلق أو تستخدم هذا النوع من الأنظمة إصدار تقارير مفصلة تشرح كيفية عمل النظام والإجراءات المتخذة لتجنب المخاطر على الأفراد ولتكون بأقصى قدر من الشفافية.

كل شيء يبدو واضحًا وصحيحًا، لكن هناك بعض المشاكل التي يجب على الجهات التنظيمية معالجتها.

اللائحة تبدو عامة جدًا

واحدة من الجوانب التي تثير قلق أصحاب الأعمال والمستثمرين أكثر هي نقص الاهتمام بالقطاعات المحددة للذكاء الاصطناعي.

على سبيل المثال، الشركات التي تنتج وتستخدم أنظمة تعتمد على الذكاء الاصطناعي لأغراض عامة قد تعتبر من تلك التي تستخدم الذكاء الاصطناعي لحالات استخدام عالية المخاطر.

وهذا يعني أنه يتعين عليها إصدار تقارير مفصلة تتطلب وقتًا ومالًا. وبما أن الشركات الصغيرة والمتوسطة لا تستثنى، وتشكل الجزء الأكبر من اقتصادات أوروبا، فقد تصبح أقل تنافسية مع مرور الوقت.

والفرق بين شركات الذكاء الاصطناعي الأمريكية والأوروبية هو مصدر القلق الرئيسي: فإيطاليا، لا تمتلك أوروبا شركات ذكاء اصطناعي كبيرة مثل الولايات المتحدة، حيث أن بيئة الذكاء الاصطناعي في أوروبا تتكون بشكل رئيسي من الشركات الصغيرة والمتوسطة والشركات الناشئة.

وفقًا لاستطلاع أجرته appliedAI، فإن الغالبية العظمى من المستثمرين يتجنبون الاستثمار في الشركات الناشئة المصنفة على أنها “عالية المخاطر”، تحديدًا بسبب التعقيدات المرتبطة بهذا التصنيف.

تغيرت خطط الاتحاد الأوروبي بسبب ChatGPT

كان من المفترض أن تغلق الجهات التنظيمية الأوروبية الوثيقة في 19 أبريل، لكن النقاش حول التعريفات المختلفة للأنظمة المعتمدة على الذكاء الاصطناعي وحالات استخدامها أخر إصدار المسودة النهائية.

علاوة على ذلك، أظهرت شركات التكنولوجيا أن ليس جميعها يتفق على النسخة الحالية من الوثيقة.

أكثر ما تسبب في التأخير هو التمييز بين نماذج الأساس والذكاء الاصطناعي العام.

مثال على نماذج الأساس هو ChatGPT من OpenAI: هذه الأنظمة تُدرّب باستخدام كميات كبيرة من البيانات ويمكنها إنتاج أي نوع من المخرجات.

أما الذكاء الاصطناعي العام فيشمل الأنظمة التي يمكن تكييفها لمختلف الاستخدامات والقطاعات.

يريد المنظمون الأوروبيون تنظيم نماذج الأساس بشكل صارم، لأنها قد تشكل مخاطر أكبر وتؤثر سلبًا على حياة الناس.

كيف تنظم الولايات المتحدة والصين الذكاء الاصطناعي

عند النظر إلى كيفية تعامل الجهات التنظيمية في الاتحاد الأوروبي مع الذكاء الاصطناعي، يبرز شيء: يبدو أن الجهات التنظيمية أقل استعدادًا للتعاون.

على سبيل المثال، في الولايات المتحدة، بحثت إدارة بايدن عن تعليقات عامة حول سلامة أنظمة مثل ChatGPT، قبل وضع إطار تنظيمي محتمل.

وفي الصين، كانت الحكومة تنظّم الذكاء الاصطناعي وجمع البيانات لسنوات، واهتمامها الرئيسي لا يزال هو الاستقرار الاجتماعي.

حتى الآن، يبدو أن المملكة المتحدة في وضع جيد في تنظيم الذكاء الاصطناعي، حيث اتبعت نهجًا “خفيفًا” — لكن من المعروف أن المملكة تريد أن تصبح رائدة في اعتماد الذكاء الاصطناعي والتكنولوجيا المالية.

التكنولوجيا المالية وقانون الذكاء الاصطناعي

عندما يتعلق الأمر بالشركات والشركات الناشئة التي تقدم خدمات مالية، فإن الوضع أكثر تعقيدًا.

في الواقع، إذا استمرت اللائحة على حالتها الحالية، ستحتاج الشركات المالية الناشئة إلى الالتزام ليس فقط باللوائح المالية الحالية، بل أيضًا بهذا الإطار التنظيمي الجديد.

وأن يُصنّف تقييم الجدارة الائتمانية كمستخدم عالي المخاطر هو مجرد مثال على العبء الذي يجب أن تحمله شركات التكنولوجيا المالية، مما يمنعها من أن تكون مرنة كما كانت حتى الآن، لجمع الاستثمارات والبقاء تنافسية.

الخلاصة

كما أشار بيتر سارلين، المدير التنفيذي لشركة Silo AI، المشكلة ليست في التنظيم، بل في التنظيم السيئ.

كونه عامًا جدًا قد يضر بالابتكار وبجميع الشركات المشاركة في إنتاج وتوزيع واستخدام المنتجات والخدمات المعتمدة على الذكاء الاصطناعي.

إذا كان المستثمرون في الاتحاد الأوروبي قلقين بشأن المخاطر المحتملة التي قد يفرضها تصنيف يقول إن شركة ناشئة أو شركة تقع ضمن فئة “عالية المخاطر”، فإن بيئة الذكاء الاصطناعي في الاتحاد الأوروبي قد تتأثر سلبًا، بينما تبحث الولايات المتحدة عن تعليقات عامة لتحسين تقنياتها، ولدى الصين رأي واضح حول كيفية تنظيم الذكاء الاصطناعي.

وفقًا لروبن روم، أحد مؤسسي Apheris، أحد السيناريوهات المحتملة هو أن تنتقل الشركات الناشئة إلى الولايات المتحدة — بلد قد يخسر الكثير عندما يتعلق الأمر بالبلوكشين والعملات الرقمية، لكنه قد يفوز في سباق الذكاء الاصطناعي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.28Kعدد الحائزين:2
    0.15%
  • القيمة السوقية:$2.22Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.22Kعدد الحائزين:1
    0.00%
  • تثبيت