الإثنين, 8 سبتمبر 2025 07:32 PM

بعد حادثة انتحار مراهق: "OpenAI" تعزز الرقابة الأبوية على "ChatGPT"

بعد حادثة انتحار مراهق: "OpenAI" تعزز الرقابة الأبوية على "ChatGPT"

أعلنت شركة "OpenAI"، مطورة تطبيق "ChatGPT"، عن مجموعة من الإجراءات والخطط الجديدة لتطوير التطبيق، بهدف تعزيز سلامة المستخدمين ودعمهم، خاصةً المراهقين. يأتي هذا الإعلان بعد اتهامات وجهها والدا فتى أمريكي للشركة في أواخر آب الماضي، بزعم تشجيع ابنهم على الانتحار. تتضمن الخطط الجديدة أدوات رقابة أبوية وشراكات مع خبراء في الصحة النفسية، وفقًا لما أعلنته الشركة في مدونتها بتاريخ 2 أيلول الحالي، تحت عنوان "بناء تجارب أكثر فائدة للجميع".

التعاون مع خبراء الصحة النفسية

أفادت "OpenAI" بتشكيل مجلس استشاري يضم خبراء في مجالات الصحة العقلية والنمو النفسي وتفاعل الإنسان مع التكنولوجيا، بهدف المساهمة في وضع سياسات ومعايير واضحة تعزز رفاهية المستخدمين. يعمل المجلس جنبًا إلى جنب مع شبكة عالمية من الأطباء تضم أكثر من 250 طبيبًا من 60 دولة، بما في ذلك متخصصون في الطب النفسي وطب الأطفال. أوضحت الشركة أن حوالي 90 طبيبًا شاركوا بالفعل في تطوير نماذج الأمان الخاصة بها، خاصةً فيما يتعلق بتفاعل الذكاء الاصطناعي مع المستخدمين في لحظات التوتر والضغط العاطفي. تهدف هذه الشراكات إلى ضمان قدرة الأدوات التكنولوجية على تقديم المساعدة في المواقف الحرجة، بدلًا من الاكتفاء بدور تقني بحت.

نماذج تفكير أعمق للحالات الحساسة

من أبرز ما تضمنه الإعلان إدخال نماذج أكثر تقدمًا مثل "GPT-5-thinking" و"o3"، القادرة على معالجة المعلومات بدقة وعمق أكبر من النماذج السابقة. تتميز هذه النماذج باستخدام منهجية جديدة أطلقت عليها الشركة اسم "التوافق التأملي"، وهي آلية تسمح للنظام بقراءة السياق بشكل أوسع قبل إصدار الرد. بالتالي، يصبح "ChatGPT" أكثر قدرة على الاستجابة للمواقف الحساسة، خاصةً تلك المتعلقة بالصحة النفسية. بالإضافة إلى ذلك، أطلقت "OpenAI" ما سمّته "الموجّه الحي"، وهو نظام ذكي يقوم بتحويل المحادثات ذات الطابع الحساس أو التي تشير إلى ضائقة نفسية حادة إلى هذه النماذج المتقدمة تلقائيًا، حتى لو كان المستخدم يستعمل نسخة أقل قوة من "ChatGPT".

أدوات رقابة أبوية

تضمن إعلان الشركة خططًا خاصة بالمراهقين، الذين وصفتهم "OpenAI" بأنهم "جيل الذكاء الاصطناعي الفطري". سيتمكن الآباء بدءًا من الشهر المقبل من ربط حساباتهم بحسابات أبنائهم المراهقين عبر دعوة بريدية، مما يتيح لهم التحكم في عدة أمور أساسية، أبرزها:

  • ضبط قواعد السلوك المناسبة للعمر، وهي مفعّلة بشكل افتراضي.
  • تعطيل ميزات مثل الذاكرة وسجل المحادثات متى دعت الحاجة.
  • تلقي إشعارات فورية إذا اكتشف النظام أن المراهق يمر بلحظة ضائقة نفسية حادة.

تؤكد "OpenAI" أن الهدف من هذه الأدوات ليس فرض قيود صارمة، بل محاولة لتعزيز الثقة بين الأهل والمراهقين، وضمان أن يظل استخدام الذكاء الاصطناعي تجربة آمنة وبنّاءة.

التزامات مستقبلية

تعتبر الشركة هذه الخطوة جزءًا من مسار طويل الأمد، يمتد على الأقل 120 يومًا من الآن، حيث ستبدأ خلال هذه الفترة بتنفيذ وقياس أثر هذه التغييرات، مع الاستمرار في طرح تحديثات لاحقة. أشارت الشركة إلى أن أولوياتها في المرحلة المقبلة تنقسم إلى أربع نقاط رئيسة:

  • تقديم دعم أفضل للمستخدمين في أوقات الأزمات النفسية.
  • تسهيل الوصول إلى خدمات الطوارئ أو الخبراء المتخصصين عند الحاجة.
  • تمكين المستخدمين من التواصل مع أشخاص موثوقين في لحظاتهم الحرجة.
  • تعزيز حماية المراهقين عبر أدوات الرقابة الأبوية.

بينما تبقى الأسئلة قائمة حول كيفية تطبيق هذه الأدوات على أرض الواقع، يبدو أن "OpenAI" تراهن على الدمج بين التكنولوجيا المتقدمة والخبرة الإنسانية، لضمان أن يبقى الذكاء الاصطناعي عنصرًا داعمًا وليس بديلًا في حياة الناس اليومية.

مشاركة المقال: