سينا فاينانشال نيوز في 26 ، أصدرت الأكاديمية الصينية لتكنولوجيا المعلومات والاتصالات “تقرير بحثي حول الحوكمة الأخلاقية للذكاء الاصطناعي (2023)” في “المنتدى الفرعي لتقرير مراقبة عمق الأكاديمية الصينية لتكنولوجيا المعلومات والاتصالات لعام 2024 حول الحوكمة الأخلاقية للعلوم والتكنولوجيا”. ووفقا للتقرير، تحولت التحديات الأخلاقية التي تفرضها الذكاء الاصطناعي الآن من المناقشات النظرية إلى المخاطر الحقيقية. في مرحلة البحث والتطوير التكنولوجي ، نظرا لنقص القدرات التقنية وأساليب الإدارة في الحصول على البيانات واستخدامها ، وتصميم الخوارزميات ، وضبط النماذج ، وما إلى ذلك ، قد تنتج كيانات تطوير تكنولوجيا الذكاء الاصطناعي مخاطر أخلاقية مثل التمييز ضد التحيز ، وتسرب الخصوصية ، والمعلومات الخاطئة ، وعدم التفسير. في مرحلة تطوير المنتج وتطبيقه ، ستؤثر المجالات المحددة للمنتجات الذكاء الاصطناعي ونشر ونطاق تطبيق أنظمة الذكاء الاصطناعي على درجة المخاطر الأخلاقية الذكاء الاصطناعي ، وقد تؤدي إلى مخاطر أخلاقية مثل سوء الاستخدام وإساءة الاستخدام ، والاعتماد المفرط ، والتأثير على التعليم والتوظيف. بالنسبة لسيناريوهات التطبيق النموذجية مثل المحتوى الذي تم إنشاؤه الذكاء الاصطناعي والقيادة الذاتية والرعاية الصحية الذكية ، من الضروري تقييم المخاطر الرئيسية بناء على تكرار التأثير ونطاقه ودرجته.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
صدر اليوم التقرير البحثي حول الحوكمة الأخلاقية للذكاء الاصطناعي (2023)
سينا فاينانشال نيوز في 26 ، أصدرت الأكاديمية الصينية لتكنولوجيا المعلومات والاتصالات “تقرير بحثي حول الحوكمة الأخلاقية للذكاء الاصطناعي (2023)” في “المنتدى الفرعي لتقرير مراقبة عمق الأكاديمية الصينية لتكنولوجيا المعلومات والاتصالات لعام 2024 حول الحوكمة الأخلاقية للعلوم والتكنولوجيا”. ووفقا للتقرير، تحولت التحديات الأخلاقية التي تفرضها الذكاء الاصطناعي الآن من المناقشات النظرية إلى المخاطر الحقيقية. في مرحلة البحث والتطوير التكنولوجي ، نظرا لنقص القدرات التقنية وأساليب الإدارة في الحصول على البيانات واستخدامها ، وتصميم الخوارزميات ، وضبط النماذج ، وما إلى ذلك ، قد تنتج كيانات تطوير تكنولوجيا الذكاء الاصطناعي مخاطر أخلاقية مثل التمييز ضد التحيز ، وتسرب الخصوصية ، والمعلومات الخاطئة ، وعدم التفسير. في مرحلة تطوير المنتج وتطبيقه ، ستؤثر المجالات المحددة للمنتجات الذكاء الاصطناعي ونشر ونطاق تطبيق أنظمة الذكاء الاصطناعي على درجة المخاطر الأخلاقية الذكاء الاصطناعي ، وقد تؤدي إلى مخاطر أخلاقية مثل سوء الاستخدام وإساءة الاستخدام ، والاعتماد المفرط ، والتأثير على التعليم والتوظيف. بالنسبة لسيناريوهات التطبيق النموذجية مثل المحتوى الذي تم إنشاؤه الذكاء الاصطناعي والقيادة الذاتية والرعاية الصحية الذكية ، من الضروري تقييم المخاطر الرئيسية بناء على تكرار التأثير ونطاقه ودرجته.