قبل إقالة سام ألتمان بأربعة أيام، حذر العديد من الباحثين العاملين في OpenAI في خطاب مجلس الإدارة من مخاطر اكتشاف الذكاء الاصطناعي الذي تزداد قدراته يوماً بعد يوم والذي قد يهدد مستقبل البشرية، وذلك وفقاً لما نقلته رويترز عن مصدران مطلعان على الأمر.
كان الخطاب التحذيري الذي كتبه الباحثون وخوارزمية الذكاء الاصطناعي فائقة الذكاء وقوداً لتغذية قرار مجلس الإدارة بإقالة ألتمان -الطفل المُدلل للذكاء الاصطناعي- من منصبه، وذلك وفقاً لما ذكره المصدران.
كان الخطاب مجرد عامل من بين قائمة من العوامل التي قدمها أعضاء مجلس الإدارة لاتخاذ قرارهم بإقالة ألتمان، ومن بينها مخاوف بشأن تسويق التقدم في مجال الاصطناعي وعدم وضع اعتبار للعواقب. حاولت رويترز الحصول على نسخة من الخطاب التحذيري ولكن لم يستجب الباحثون لطلبها.
ذكر أحد الأشخاص أن OpenAI قد اعترفت في رسالة داخلية للموظفين بالخطاب وبمشروع اسمه *Q، ولقد علق المتحدث باسم OpenAI بأن الرسالة التي كتبتها ميرا موراتي التي عُينت رئيسة تنفيذية للشركة بشكل مؤقت بعد إقالة ألتمان، قد نبهت الموظفين لبعض القصص الإعلامية دون التعليق على دقتها.
يعتقد البعض أن مشروع *Q يمثل طفرة للشركة الناشئة في مجال الذكاء الاصطناعي العام “AGI” والذي تعرفه OpenAI بأنه نظام مؤتمت يفوق البشر في معظم المهام ذات القيمة الاقتصادية. وفقاً لأحد المصادر الداخلية، فإن النموذج الجديد قادر على حل مشكلات حسابية محددة، ورغم أن ذكاؤه يوازي ذكاء طلبة المدارس الابتدائية، إلا أنه جعل الباحثين متفائلين بشأنه.
لم تذكر المصادر أية تفاصيل تخص مخاوف السلامة التي تضمنها الخطاب التحذيري، ولكنها ذكرت أنه تضمن تحذيراً من قوة وخطر محتمل من الذكاء الاصطناعي، ويبدو أن المخاوف تدور حول احتمالية أن ينقلب الذكاء الاصطناعي ضد البشر ويقرر القضاء عليهم للتحرر منهم.