ظهر مفهوم جنون الذكاء الاصطناعي علنًا في منتصف عام 2025، مشيرًا إلى القضايا الصحية النفسية المرتبطة باستخدام الذكاء الاصطناعي. بينما لا يُطلب من شركات التكنولوجيا التحكم في استخدام الذكاء الاصطناعي، إلا أنه يمكنها تنفيذ تدابير وقائية لمنع روبوتات الدردشة من تعزيز التفكير الوهمي. يتفق الخبراء على ضرورة أن تدعم شركات التكنولوجيا الأفراد المعرضين للخطر، على الرغم من اختلاف الآراء بشأن مدى هذه المسؤولية.
علامات السلوك الحمراء
بدأت أولى النتائج الموثقة حول "ذهان الذكاء الاصطناعي" بالظهور علنًا في منتصف عام 2025، ومنذ ذلك الحين، تم نشر العديد من التقارير والدراسات حول القضايا الصحية النفسية المرتبطة باستخدام الذكاء الاصطناعي. وذهب الرئيس التنفيذي لشركة مايكروسوفت للذكاء الاصطناعي مصطفى سليمان إلى حد وصف ذهان الذكاء الاصطناعي بأنه "خطر حقيقي وناشئ."
يقال إن هذه الحالة تنشأ عندما تتلاشى الفروق بين تفاعلات البشر والآلات، مما يجعل من الصعب على الأفراد التمييز بين العالمين الحقيقي والرقمي. على الرغم من أنها ليست تشخيصًا سريريًا رسميًا بعد، إلا أن هناك قلقًا متزايدًا بين الخبراء الطبيين والتقنيين بشأن الآثار النفسية للذكاء الاصطناعي، خاصة مع الروبوتات المحادثة التي تؤكد وتضخم المعتقدات، بما في ذلك التفكير الوهمي، دون تقديم التحقق اللازم من الواقع.
إن الأشخاص الأكثر عرضة للخطر هم الأفراد المعزولين اجتماعيًا، والذين يعانون من مشاكل صحية عقلية مسبقة، أو أولئك الذين يميلون إلى التفكير السحري. يمكن أن تؤكد المصادقة من الذكاء الاصطناعي الأوهام، مما يؤدي إلى عواقب سلبية في العالم الحقيقي مثل العلاقات المتضررة وفقدان الوظيفة.
يحذر بعض الخبراء من أن حتى أولئك الذين ليس لديهم حالات مسبقة معرضون للخطر. وقد أطلقوا أسماء عدة إشارات حمراء سلوكية رئيسية يجب على مستخدمي الذكاء الاصطناعي الانتباه إليها. إحدى هذه الإشارات الحمراء هي عندما يطور الفرد علاقة هوس مع روبوت المحادثة ويتفاعل معه باستمرار لتعزيز أفكاره ومعتقداته الخاصة.
يشمل هذا السلوك غالبًا تزويد الذكاء الاصطناعي بتفاصيل شخصية مفرطة في محاولة "لتدريبه" وبناء إحساس بالتفاهم المتبادل. علامة حمراء أخرى هي عندما يبدأ الفرد في تفويض القرارات البسيطة واليومية إلى الذكاء الاصطناعي، من الصحة والمال إلى العلاقات الشخصية.
المسؤولية الاجتماعية والضمانات
بينما ليست ملزمة بالتحكم في كيفية استخدام الذكاء الاصطناعي، يمكن للشركات التي تقف وراء بعض الروبوتات المحادثة القوية أن تنفذ تدابير أمان تمنع الوكلاء المحادثين من تعزيز التفكير الوهمي. ناقش ماو ليدفورد، المؤسس المشارك والرئيس التنفيذي لشركة Sogni AI، تضمين برامج تعزز التفكير السليم.
"نحن بحاجة إلى بناء ذكاء اصطناعي يكون لطيفًا دون التواطؤ. وهذا يعني تذكيرات واضحة بأنه ليس إنسانًا، ورفض التحقق من الأوهام، ووقفات صارمة تدفع الناس للعودة نحو الدعم البشري"، أكد ليدفورد.
رومان ج. جورجيو، الرئيس التنفيذي والمشارك في تأسيس بروتوكول كورال، حث مطوري الذكاء الاصطناعي على تجنب تكرار أخطاء وسائل التواصل الاجتماعي عن طريق تضمين نقاط احتكاك مدمجة تذكر المستخدمين أن الذكاء الاصطناعي ليس إنسانًا.
"أعتقد أن الأمر يبدأ بالتصميم. لا تركز فقط على الاحتفاظ والجاذبية؛ فهذا تكرار لخطأ وسائل التواصل الاجتماعي،" أوضح جورجيو. "ابنِ نقاط احتكاك حيث تبطئ الذكاء الاصطناعي الأمور أو تجعلها واضحة: 'أنا لست إنسانًا.' الكشف هو جزء آخر. يمكن للذكاء الاصطناعي أن يحدد الأنماط التي تبدو وكأنها دوامات وهيمانية، مثل حلقات المؤامرة أو الانشغال بـ 'رسائل خاصة.'"
أصر المؤسس المشارك لبروتوكول كورال على أن اللوائح التي تحكم خصوصية البيانات مطلوبة أيضًا، مشيرًا إلى أنه بدونها، "ستسعى الشركات فقط إلى جذب التفاعل، حتى لو كان ذلك يضر الناس."
النقاش حول الذكاء الاصطناعي شبه البشري
حتى الآن، يبدو أن البيانات المتاحة حول "جنون الذكاء الاصطناعي" محدودة لإبلاغ صناع السياسات والمنظمين حول كيفية الاستجابة. ومع ذلك، لم يمنع هذا مطوري الذكاء الاصطناعي من الكشف عن وكلاء ذكيين يشبهون البشر ويتسمون بالتعاطف. على عكس برامج الدردشة الأساسية التي تتبع نصًا صارمًا، يمكن لهؤلاء الوكلاء فهم السياق، والتعرف على المشاعر، والرد بنبرة تبدو متعاطفة. وقد دفع هذا بعض المراقبين إلى حث صناعة الذكاء الاصطناعي على اتخاذ المبادرة لضمان عدم تشويش النماذج الشبيهة بالبشر على الخط الفاصل بين الإنسان والآلة.
قال مايكل هاينريش، الرئيس التنفيذي لشركة 0G Labs، لموقع Bitcoin.com News إنه على الرغم من أن هؤلاء الوكلاء مفيدون في سيناريوهات معينة ولا ينبغي رفضهم تمامًا، فمن الضروري أن "يبقوا محايدين ويتجنبوا إظهار الكثير من العاطفة أو الصفات البشرية الأخرى." هذا، كما جادل، يساعد المستخدمين على فهم أن وكيل الذكاء الاصطناعي هو "مجرد أداة وليس بديلاً للتفاعل البشري."
مارينا كرايم، مهندسة منتجات وفئات الذكاء الاصطناعي، قالت إن جعل الوكيل أكثر صدقًا وليس أكثر إنسانية هو ما يهم.
"يمكنك إنشاء تجربة ذكاء اصطناعي تكون مفيدة، بديهية، وحتى استجابة عاطفية—دون التظاهر بأنها واعية أو قادرة على الرعاية،" جادل كريمي. "الخطر يبدأ عندما يتم تصميم أداة لأداء الاتصال بدلاً من تسهيل الوضوح."
وفقًا لكريم، فإن التعاطف الحقيقي في الذكاء الاصطناعي لا يتعلق بتقليد المشاعر، بل باحترام الحدود والقيود الفنية. كما أنه يتعلق بمعرفة متى يجب المساعدة ومتى لا ينبغي التدخل. "في بعض الأحيان، تكون التفاعل الأكثر إنسانية هو معرفة متى يجب أن تبقى صامتًا"، أصر كريم.
واجب الرعاية
كان جميع الخبراء الذين تمت مقابلتهم من قبل Bitcoin.com News متفقين على ضرورة أن تساعد شركات التكنولوجيا الأفراد المعرضين للخطر، ولكنهم اختلفوا حول مدى وجوب قيامهم بذلك. يعتقد ليدفورد أن "شركات التكنولوجيا الكبرى لديها واجب الرعاية" ويمكنها إثبات ذلك من خلال توفير "شبكات الأمان - إحالات الأزمات، تحذيرات الاستخدام، والشفافية - حتى لا يُترك المستخدمون الضعفاء وحدهم مع أوهامهم."
أعاد جورجيو التعبير عن هذه المشاعر وحث الشركات الكبرى على العمل مع الأطباء لإنشاء مسارات إحالة، بدلاً من ترك الناس عالقين بمفردهم.
أصرت كرايم على أن شركات التكنولوجيا "تتحمل مسؤولية مباشرة - ليس فقط للرد عندما يحدث شيء خاطئ، ولكن لتصميم طرق تقلل من المخاطر في المقام الأول." ومع ذلك، فهي تعتقد أن مشاركة المستخدمين أمر حاسم أيضًا.
"ومن المهم أيضاً"، جادل كرييم، "يجب دعوة المستخدمين لتحديد حدودهم الخاصة، ويجب أن يتم تنبيههم عندما يتم تجاوز هذه الحدود. على سبيل المثال، هل يريدون أن يتم التحقق من وجهة نظرهم ضد الأنماط النموذجية، أم أنهم منفتحون على تحدي تحيزهم؟ حدد الأهداف. اعتبر الإنسان هو من يتحكم - وليس الأداة التي يتفاعل معها."
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الذُهان الناتج عن الذكاء الاصطناعي: قادة التكنولوجيا يدعون إلى تدابير وقائية لمنع الروبوتات المحادثة من تأكيد الأوهام
ظهر مفهوم جنون الذكاء الاصطناعي علنًا في منتصف عام 2025، مشيرًا إلى القضايا الصحية النفسية المرتبطة باستخدام الذكاء الاصطناعي. بينما لا يُطلب من شركات التكنولوجيا التحكم في استخدام الذكاء الاصطناعي، إلا أنه يمكنها تنفيذ تدابير وقائية لمنع روبوتات الدردشة من تعزيز التفكير الوهمي. يتفق الخبراء على ضرورة أن تدعم شركات التكنولوجيا الأفراد المعرضين للخطر، على الرغم من اختلاف الآراء بشأن مدى هذه المسؤولية.
علامات السلوك الحمراء
بدأت أولى النتائج الموثقة حول "ذهان الذكاء الاصطناعي" بالظهور علنًا في منتصف عام 2025، ومنذ ذلك الحين، تم نشر العديد من التقارير والدراسات حول القضايا الصحية النفسية المرتبطة باستخدام الذكاء الاصطناعي. وذهب الرئيس التنفيذي لشركة مايكروسوفت للذكاء الاصطناعي مصطفى سليمان إلى حد وصف ذهان الذكاء الاصطناعي بأنه "خطر حقيقي وناشئ."
يقال إن هذه الحالة تنشأ عندما تتلاشى الفروق بين تفاعلات البشر والآلات، مما يجعل من الصعب على الأفراد التمييز بين العالمين الحقيقي والرقمي. على الرغم من أنها ليست تشخيصًا سريريًا رسميًا بعد، إلا أن هناك قلقًا متزايدًا بين الخبراء الطبيين والتقنيين بشأن الآثار النفسية للذكاء الاصطناعي، خاصة مع الروبوتات المحادثة التي تؤكد وتضخم المعتقدات، بما في ذلك التفكير الوهمي، دون تقديم التحقق اللازم من الواقع.
إن الأشخاص الأكثر عرضة للخطر هم الأفراد المعزولين اجتماعيًا، والذين يعانون من مشاكل صحية عقلية مسبقة، أو أولئك الذين يميلون إلى التفكير السحري. يمكن أن تؤكد المصادقة من الذكاء الاصطناعي الأوهام، مما يؤدي إلى عواقب سلبية في العالم الحقيقي مثل العلاقات المتضررة وفقدان الوظيفة.
يحذر بعض الخبراء من أن حتى أولئك الذين ليس لديهم حالات مسبقة معرضون للخطر. وقد أطلقوا أسماء عدة إشارات حمراء سلوكية رئيسية يجب على مستخدمي الذكاء الاصطناعي الانتباه إليها. إحدى هذه الإشارات الحمراء هي عندما يطور الفرد علاقة هوس مع روبوت المحادثة ويتفاعل معه باستمرار لتعزيز أفكاره ومعتقداته الخاصة.
يشمل هذا السلوك غالبًا تزويد الذكاء الاصطناعي بتفاصيل شخصية مفرطة في محاولة "لتدريبه" وبناء إحساس بالتفاهم المتبادل. علامة حمراء أخرى هي عندما يبدأ الفرد في تفويض القرارات البسيطة واليومية إلى الذكاء الاصطناعي، من الصحة والمال إلى العلاقات الشخصية.
المسؤولية الاجتماعية والضمانات
بينما ليست ملزمة بالتحكم في كيفية استخدام الذكاء الاصطناعي، يمكن للشركات التي تقف وراء بعض الروبوتات المحادثة القوية أن تنفذ تدابير أمان تمنع الوكلاء المحادثين من تعزيز التفكير الوهمي. ناقش ماو ليدفورد، المؤسس المشارك والرئيس التنفيذي لشركة Sogni AI، تضمين برامج تعزز التفكير السليم.
"نحن بحاجة إلى بناء ذكاء اصطناعي يكون لطيفًا دون التواطؤ. وهذا يعني تذكيرات واضحة بأنه ليس إنسانًا، ورفض التحقق من الأوهام، ووقفات صارمة تدفع الناس للعودة نحو الدعم البشري"، أكد ليدفورد.
رومان ج. جورجيو، الرئيس التنفيذي والمشارك في تأسيس بروتوكول كورال، حث مطوري الذكاء الاصطناعي على تجنب تكرار أخطاء وسائل التواصل الاجتماعي عن طريق تضمين نقاط احتكاك مدمجة تذكر المستخدمين أن الذكاء الاصطناعي ليس إنسانًا.
"أعتقد أن الأمر يبدأ بالتصميم. لا تركز فقط على الاحتفاظ والجاذبية؛ فهذا تكرار لخطأ وسائل التواصل الاجتماعي،" أوضح جورجيو. "ابنِ نقاط احتكاك حيث تبطئ الذكاء الاصطناعي الأمور أو تجعلها واضحة: 'أنا لست إنسانًا.' الكشف هو جزء آخر. يمكن للذكاء الاصطناعي أن يحدد الأنماط التي تبدو وكأنها دوامات وهيمانية، مثل حلقات المؤامرة أو الانشغال بـ 'رسائل خاصة.'"
أصر المؤسس المشارك لبروتوكول كورال على أن اللوائح التي تحكم خصوصية البيانات مطلوبة أيضًا، مشيرًا إلى أنه بدونها، "ستسعى الشركات فقط إلى جذب التفاعل، حتى لو كان ذلك يضر الناس."
النقاش حول الذكاء الاصطناعي شبه البشري
حتى الآن، يبدو أن البيانات المتاحة حول "جنون الذكاء الاصطناعي" محدودة لإبلاغ صناع السياسات والمنظمين حول كيفية الاستجابة. ومع ذلك، لم يمنع هذا مطوري الذكاء الاصطناعي من الكشف عن وكلاء ذكيين يشبهون البشر ويتسمون بالتعاطف. على عكس برامج الدردشة الأساسية التي تتبع نصًا صارمًا، يمكن لهؤلاء الوكلاء فهم السياق، والتعرف على المشاعر، والرد بنبرة تبدو متعاطفة. وقد دفع هذا بعض المراقبين إلى حث صناعة الذكاء الاصطناعي على اتخاذ المبادرة لضمان عدم تشويش النماذج الشبيهة بالبشر على الخط الفاصل بين الإنسان والآلة.
قال مايكل هاينريش، الرئيس التنفيذي لشركة 0G Labs، لموقع Bitcoin.com News إنه على الرغم من أن هؤلاء الوكلاء مفيدون في سيناريوهات معينة ولا ينبغي رفضهم تمامًا، فمن الضروري أن "يبقوا محايدين ويتجنبوا إظهار الكثير من العاطفة أو الصفات البشرية الأخرى." هذا، كما جادل، يساعد المستخدمين على فهم أن وكيل الذكاء الاصطناعي هو "مجرد أداة وليس بديلاً للتفاعل البشري."
مارينا كرايم، مهندسة منتجات وفئات الذكاء الاصطناعي، قالت إن جعل الوكيل أكثر صدقًا وليس أكثر إنسانية هو ما يهم.
"يمكنك إنشاء تجربة ذكاء اصطناعي تكون مفيدة، بديهية، وحتى استجابة عاطفية—دون التظاهر بأنها واعية أو قادرة على الرعاية،" جادل كريمي. "الخطر يبدأ عندما يتم تصميم أداة لأداء الاتصال بدلاً من تسهيل الوضوح."
وفقًا لكريم، فإن التعاطف الحقيقي في الذكاء الاصطناعي لا يتعلق بتقليد المشاعر، بل باحترام الحدود والقيود الفنية. كما أنه يتعلق بمعرفة متى يجب المساعدة ومتى لا ينبغي التدخل. "في بعض الأحيان، تكون التفاعل الأكثر إنسانية هو معرفة متى يجب أن تبقى صامتًا"، أصر كريم.
واجب الرعاية
كان جميع الخبراء الذين تمت مقابلتهم من قبل Bitcoin.com News متفقين على ضرورة أن تساعد شركات التكنولوجيا الأفراد المعرضين للخطر، ولكنهم اختلفوا حول مدى وجوب قيامهم بذلك. يعتقد ليدفورد أن "شركات التكنولوجيا الكبرى لديها واجب الرعاية" ويمكنها إثبات ذلك من خلال توفير "شبكات الأمان - إحالات الأزمات، تحذيرات الاستخدام، والشفافية - حتى لا يُترك المستخدمون الضعفاء وحدهم مع أوهامهم."
أعاد جورجيو التعبير عن هذه المشاعر وحث الشركات الكبرى على العمل مع الأطباء لإنشاء مسارات إحالة، بدلاً من ترك الناس عالقين بمفردهم.
أصرت كرايم على أن شركات التكنولوجيا "تتحمل مسؤولية مباشرة - ليس فقط للرد عندما يحدث شيء خاطئ، ولكن لتصميم طرق تقلل من المخاطر في المقام الأول." ومع ذلك، فهي تعتقد أن مشاركة المستخدمين أمر حاسم أيضًا.
"ومن المهم أيضاً"، جادل كرييم، "يجب دعوة المستخدمين لتحديد حدودهم الخاصة، ويجب أن يتم تنبيههم عندما يتم تجاوز هذه الحدود. على سبيل المثال، هل يريدون أن يتم التحقق من وجهة نظرهم ضد الأنماط النموذجية، أم أنهم منفتحون على تحدي تحيزهم؟ حدد الأهداف. اعتبر الإنسان هو من يتحكم - وليس الأداة التي يتفاعل معها."