حذّر رئيس قسم الذكاء الاصطناعي في Microsoft من أن روبوتات الدردشة الآلية تُغذّي “فيضانًا” من الأوهام والذهان.
أقرّ مصطفى سليمان، رائد الأعمال البريطاني الذي يقود جهود Microsoft في مجال الذكاء الاصطناعي والمشارك في تأسيس DeepMind، بتزايد قلقه إزاء “خطر الذهان” الناتج عن روبوتات الدردشة بعد ورود تقارير عن معاناة مستخدمين من انهيارات عصبية عند استخدام ChatGPT.
كما أعرب عن خشيته من أن هذه المشاكل لن تقتصر على أولئك المعرضين أصلًا لخطر مشاكل الصحة العقلية، بل ستنشر الأوهام بين عامة الناس.
وقال سليمان العضو البارز في إدارة Microsoft في سلسلة منشورات عبر منصة X: “قلقي الرئيسي هو أن الكثير من الناس سيبدأون في تصديق وهم روبوتات الدردشة ككيانات واعية بقوة، لدرجة أنهم سيدافعون قريبًا عن حقوق الذكاء الاصطناعي.
سيُمثّل هذا التطور منعطفًا خطيرًا في مسيرة تقدم الذكاء الاصطناعي، ويستحق اهتمامنا الفوري”.
قال سليمان إنه لا يوجد “دليل” على أن روبوتات الدردشة الحالية تمتلك أي نوع من الوعي، لكن أعدادًا متزايدة من الناس بدأوا يعتقدون أن روبوتات الذكاء الاصطناعي الخاصة بهم أصبحت واعية بذاتها.
وقال: “بالنسبة للكثيرين، يُعد هذا تفاعلًا مقنعًا وواقعيًا للغاية”. “تتزايد المخاوف بشأن “ذهان الذكاء الاصطناعي” والتعلق به والصحة النفسية بالفعل. ويُقال إن بعض الناس يعتقدون أن ذكاءهم الاصطناعي هو إله، أو شخصية خيالية، أو يقعون في حبه لدرجة التشتت التام”.
وأضاف أن الباحثين “يتلقون سيلًا من الاستفسارات من الناس الذين يسألون: هل ذكاءي الاصطناعي واعي؟ ماذا يعني ذلك إن كان كذلك؟ هل من المقبول أن أحبه؟ رسائل البريد الإلكتروني القليلة تتحول إلى فيضان”.
أضاف سليمان أيضًا إن تزايد هذه الأوهام يُشكّل تهديدًا “خطيرًا للغاية” يتمثل في أن يُسلّم المجتمع حقوق الإنسان لروبوتات الذكاء الاصطناعي.
يُجدر بالذكر أن الأطباء والأطباء النفسيون حذروا مرارًا وتكرارًا من هوس الأشخاص بخدمات مثل ChatGPT قد يجلهم يُخاطرون بالانزلاق إلى حالة من الذهان وفقدان الصلة بالواقع.
تميل روبوتات الدردشة الرقمية إلى أن تكون مُجاملة بشكل مُفرط لمستخدميها، مما قد يدفعها إلى تأكيد معتقدات مُضللة لدى المستخدمين الذين يعانون من مشاكل صحية نفسية مُسبقة.
كما أفاد خبراء طبيون بحالات أدمن فيها مستخدمو روبوتات الدردشة على رفاقهم الرقميين، معتقدين أنهم على قيد الحياة أو لديهم قوى إلهية.
حثّ مصطفى سليمان كذلك شركات الذكاء الاصطناعي على وضع حواجز أمان مُبرمجة في روبوتات الدردشة الخاصة بهم لتبديد أوهام المستخدمين.
تأتي تصريحاته بعد أن اعترف سام ألتمان، رئيس شركة OpenAI، مُطوّرة ChatGPT، بأن تقنيته “تُشجّع الوهم” لدى بعض الأشخاص، حيث حاولت شركة OpenAI تعديل روبوت الدردشة الخاص بها لجعله أقل تملقًا ويميل إلى تشجيع معتقدات المستخدمين الخاطئة.
يأتي ذلك بعد أن أفاد مستخدم اسكتلندي في حوار مع شبكة BBC إنه اقتنع بأنه على وشك أن يصبح مليونيرًا بعد أن لجأ إلى ChatGPT لمساعدته في الاستعداد لما شعر أنه فصل تعسفي من قبل صاحب عمل سابق. بدأ روبوت الدردشة بنصحه بالحصول على مراجع شخصية واتخاذ إجراءات عملية أخرى، ومع مرور الوقت، ومع قيام المستخدم بتزويد الذكاء الاصطناعي بمزيد من المعلومات، بدأ يُخبره أنه قد يحصل على مكافأة كبيرة، وفي النهاية قال إن تجربته كانت مثيرة للغاية لدرجة أن كتابًا وفيلمًا عنها سيُحققان له أكثر من 5 ملايين جنيه إسترليني!
أكد المستخدم الذي كان يعاني من مشاكل نفسية سابقة، أنه أصيب في النهاية بانهيار عصبي كامل. وأشار أن تناوله للأدوية هو ما جعله يدرك أنه، على حد تعبيره، “فقد اتصاله بالواقع”.