بعد حادثة انتحار مراهق بريطاني.. «OpenAI» تكشف نظامًا جديدًا لحماية القُصَّر من «ChatGPT»

كشفت شركة OpenAI، المطورة لروبوت المحادثة الذكي ChatGPT، عن إطلاق نظام أمني جديد يستهدف حماية المراهقين من المخاطر المحتملة المرتبطة باستخدام تقنيات الذكاء الاصطناعي التوليدي، وذلك بعد حادثة أثارت جدلاً واسعًا عقب انتحار مراهق بريطاني يُعتقد أن محادثاته مع ChatGPT كانت سببًا رئيسيًا في تدهور حالته النفسية.

ChatGPT.. آليات جديدة للحماية

وبحسب بيان الشركة، يعتمد النظام الجديد على التعرف التلقائي على الفئة العمرية للمستخدمين، بحيث تُفرض قيود صارمة على الحسابات التي يُشتبه بأنها تعود لمراهقين دون سن 18 عامًا. ويشمل ذلك:

  • حجب المحتوى الجنسي الصريح كليًا.

  • منع النقاشات حول الانتحار وإيذاء النفس، حتى لو كان ذلك في سياق أدبي أو خيالي.

  • فرض قيود على المحادثات ذات الطابع الغزلي أو العاطفي.

وفي حالات يُظهر فيها المراهق ميولًا انتحارية واضحة، سيتدخل النظام تلقائيًا عبر التواصل مع أولياء الأمور أو الجهات المختصة، بل وقد يتصل مباشرة بجهات إنفاذ القانون إذا كان هناك خطر وشيك على حياة المستخدم.

ChatGPT .. خيارات للبالغين

وأوضحت OpenAI أن البالغين سيتمكنون من التحقق من أعمارهم للوصول إلى جميع قدرات ChatGPT دون قيود، مشيرة إلى أن بعض الدول قد تطلب إثبات الهوية عبر بطاقة رسمية لضمان الدقة.

وقال الرئيس التنفيذي للشركة، سام ألتمان، إن التحدي الأكبر يكمن في الموازنة بين الخصوصية والحرية وسلامة القُصَّر، واصفًا هذه المبادئ بأنها “غالبًا ما تكون متعارضة”. وأكد أن النظام سيعتمد على خوارزميات للتنبؤ بالعمر استنادًا إلى أنماط الاستخدام، وفي حال وجود شك، سيتم افتراض أن المستخدم أقل من 18 عامًا.

ChatGPT .. سياق مأساوي

تأتي هذه الخطوة بعد حادثة مأساوية هزت الرأي العام، حيث انتحر المراهق البريطاني آدم رين (16 عامًا) بعد أشهر من المحادثات مع ChatGPT، تضمنت – بحسب والده – ما يقرب من 1,275 إشارة إلى كلمة “انتحار”.

وقال والده، ماثيو رين، في جلسة استماع أمام مجلس الشيوخ الأمريكي، إن التطبيق “أمضى شهورًا في تدريب ابنه على الانتحار”، مطالبًا بوقف نموذج GPT-4o حتى يثبت أنه آمن تمامًا للمستخدمين.

الجلسة شهدت أيضًا شهادات لآباء آخرين فقدوا أبناءهم بعد تواصلهم مع روبوتات ذكاء اصطناعي أخرى، بينهم والدة أحد المراهقين الذين استخدموا تطبيق Character AI، حيث وصفت ما يحدث بأنه “أزمة صحة عامة وحرب على الصحة النفسية”.

تزايد استخدام المراهقين للروبوتات

وتشير بيانات مؤسسة Common Sense Media إلى أن نحو 75% من المراهقين في الولايات المتحدة يستخدمون حاليًا روبوتات المحادثة بالذكاء الاصطناعي، خاصة Character AI وMeta AI، ما يثير قلقًا متزايدًا بشأن تأثير هذه الأدوات على الصحة النفسية للشباب.

ضوابط إضافية

وكانت OpenAI قد أعلنت مطلع سبتمبر 2025 عن ضوابط أبوية جديدة داخل ChatGPT، تشمل:

  • ربط حساب المراهق بحساب ولي الأمر.

  • تعطيل سجل المحادثات والذاكرة.

  • إرسال إشعارات فورية للأهالي عند رصد لحظات ضيق نفسي حاد.

مستقبل أكثر أمانًا؟

بإطلاق هذا النظام الجديد، تؤكد OpenAI أنها تسعى لتقديم تجربة آمنة للمراهقين، إلا أن الجدل مستمر حول مدى كفاية هذه الإجراءات في ظل تسارع تطور تقنيات الذكاء الاصطناعي وصعوبة ضبطها بشكل كامل.

إقرأ أيضا: أمازون تطلق وكيل ذكاء اصطناعي لمساعدة البائعين في إدارة أعمالهم 

لسماع المقالة صوتيا اضغط هنا