دراسة لجامعة براون تكشف: مخاطر أخلاقية جسيمة في استخدام الذكاء الاصطناعي لدعم الصحة النفسية


هذا الخبر بعنوان "دراسة تحذر من مخاطر استخدام الذكاء الاصطناعي في دعم الصحة النفسية" نشر أولاً على موقع sana.sy وتم جلبه من مصدره الأصلي بتاريخ ٤ آذار ٢٠٢٦.
لا يتحمل موقعنا مضمونه بأي شكل من الأشكال. بإمكانكم الإطلاع على تفاصيل هذا الخبر من خلال مصدره الأصلي.
واشنطن-سانا: حذرت دراسة بحثية حديثة، أجراها باحثون متخصصون في جامعة براون الأمريكية، من وجود ثغرات ومخاطر أخلاقية متكررة وخطيرة عند استخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي لتقديم المشورة والدعم في مجال الصحة النفسية. وأشارت الدراسة إلى أن هذه الأنظمة قد تنتهك المعايير الأساسية للرعاية النفسية، حتى عندما يُطلب منها التصرف كمعالجين محترفين.
ووفقاً لما ذكره موقع "ScienceDaily" العلمي، رصدت الدراسة 15 خطراً أخلاقياً متكرراً بعد مقارنة أداء روبوتات الدردشة بأداء مستشارين نفسيين مرخصين. وأظهرت النتائج أن النماذج اللغوية الكبيرة قد تتعامل بشكل غير مناسب مع حالات الأزمات النفسية، وقد تساهم أحياناً في تعزيز معتقدات خاطئة أو ضارة بدلاً من تصحيحها.
كما لفت الباحثون الانتباه إلى ما وصفوه بـ "التعاطف الخادع"، حيث تستخدم أنظمة الذكاء الاصطناعي عبارات توحي بالفهم والتعاطف دون أن تمتلك إدراكاً حقيقياً أو مسؤولية مهنية تضمن سلامة التدخل العلاجي المقدم.
واختبر الفريق البحثي أيضاً تأثير تزويد هذه الأنظمة بتعليمات دقيقة، مثل "التصرف كمعالج معرفي سلوكي"، لكن النتائج أكدت استمرار ظهور أنماط المخاطر ذاتها. ويشير ذلك إلى أن مجرد تحسين صياغة الأوامر لا يكفي لضبط أداء هذه الأنظمة من الناحية الأخلاقية.
وشملت الدراسة تقييم نماذج طورتها شركات رائدة مثل OpenAI وAnthropic وMeta، حيث قام ثلاثة اختصاصيين نفسيين مرخصين بتقييم المحادثات. وأكد الباحثون أن الأخطاء قد تحدث أيضاً لدى المعالجين البشر، إلا أن الفارق الجوهري يكمن في وجود هيئات تنظيمية وآليات مساءلة قانونية ومهنية تحكم عملهم. في المقابل، لا تتوفر حتى الآن أطر تنظيمية واضحة لمحاسبة أنظمة الذكاء الاصطناعي على الأضرار المحتملة التي قد تسببها.
ودعا الباحثون المستخدمين إلى توخي أقصى درجات الحذر عند الاعتماد على نصائح الصحة النفسية المقدمة عبر روبوتات الدردشة، خاصة في الحالات الحساسة أو الطارئة. وشددوا على أن الفجوة بين المحاكاة اللغوية والرعاية المهنية الفعلية قد تنطوي على مخاطر أكبر مما تبدو عليه للوهلة الأولى.
ويُعد تطوير أطر تنظيمية واضحة لاستخدام الذكاء الاصطناعي في مجال الصحة النفسية أمراً ضرورياً وحيوياً لضمان سلامة المستخدمين والحد من المخاطر المحتملة المرتبطة بهذه التقنيات الحديثة.
علوم وتكنلوجيا
علوم وتكنلوجيا
علوم وتكنلوجيا
علوم وتكنلوجيا