الثلاثاء, 21 أكتوبر 2025 10:17 PM

الذكاء الاصطناعي: هل يحمي حقوق الإنسان أم ينتهكها؟

الذكاء الاصطناعي: هل يحمي حقوق الإنسان أم ينتهكها؟

يمثل الذكاء الاصطناعي فرصة واعدة للتقدم والابتكار، شرط استخدامه ضمن أطر قانونية وأخلاقية واضحة. لكن في المقابل، يطرح تحديات جمة تهدد الخصوصية والعدالة والمساءلة، خاصة في غياب الرقابة والتشريعات المنظمة. هذا الجدل يثير تساؤلات أساسية حول حماية حقوق الإنسان، وعلى رأسها الحق في الخصوصية والمسؤولية القانونية عن الأضرار المحتملة.

الذكاء الاصطناعي وتهديد الخصوصية

يؤكد المحامي والدكتور في الحقوق «قسم القانون الدولي» والباحث في حقوق الإنسان توفيق العلي أن الذكاء الاصطناعي يمثل تهديداً كبيراً لخصوصية الأفراد. فالعديد من الأنظمة تعتمد على جمع وتحليل كميات هائلة من البيانات الشخصية، مما قد ينتهك خصوصية المستخدمين دون علمهم أو موافقتهم. ويشير في تصريحه لـ «الحرية» إلى أن العديد من التطبيقات تجمع معلومات وبيانات المستخدمين، بما في ذلك مواقعهم واهتماماتهم، دون الحصول على إذن مسبق، وهو ما يعتبر مخالفة صريحة للقانون وانتهاكاً لحق الإنسان في الخصوصية.

باحث في حقوق الإنسان: غياب التشريعات الواضحة للذكاء الاصطناعي يترك فراغاً قانونياً خطيراً

ويرى العلي أن الذكاء الاصطناعي سلاح ذو حدين، فهو قادر على حماية البيانات من خلال التشفير والكشف المبكر عن الاختراقات، لكنه يتحول إلى خطر حقيقي في غياب الضوابط القانونية والأخلاقية الواضحة.

يشكل الذكاء الاصطناعي تحولاً تقنياً كبيراً يحمل في طياته فرصاً للتقدم ومخاطر على حقوق الإنسان، خصوصاً الحق في الخصوصية، وقد ينتهك خصوصية الأفراد عبر جمع بياناتهم دون موافقتهم، وهذا ما يستدعي الحاجة لتشريعات خاصة تنظم استخدامه واتفاقية دولية تُفعّل المساءلة والرقابة البشرية.

تشريعات غير كافية

وحول مدى كفاية القوانين الحالية لحماية الحقوق الرقمية، يوضح الدكتور العلي أن التشريعات الحالية، سواء على المستوى المحلي أو الدولي، غير كافية لمواجهة التحديات التي يفرضها الذكاء الاصطناعي. ويشدد على الحاجة إلى اتفاقية دولية خاصة تنظم استخدام الذكاء الاصطناعي، على أن تصادق عليها الدول وتضع كل دولة إطاراً قانونياً يضمن الشفافية والمساءلة، مع التأكيد على أن يكون الإنسان هو المتحكم الأول في القرار.

سوابق قانونية دولية

يشير العلي إلى أن العالم بدأ يشهد قضايا قانونية تتعلق بانتهاكات الذكاء الاصطناعي، مثل قضية الشركة الأوروبية التي جمعت صوراً لأشخاص من الإنترنت دون موافقتهم، مما أدى إلى معاقبتها بموجب قانون حماية البيانات الأوروبي. ويؤكد أن هذه القضايا تبرز الحاجة إلى قواعد قانونية واضحة تحدد المسؤوليات وتمنع الانتهاكات قبل وقوعها. ويرى أن قانون حماية البيانات الأوروبي يمثل خطوة متقدمة، لكنه غير كاف وحده لضمان حماية شاملة، نظراً لتجاوز تطبيقات الذكاء الاصطناعي للحدود الجغرافية والقانونية التقليدية.

من يتحمل المسؤولية؟

يوضح الدكتور العلي أنه في ظل غياب إطار تشريعي واضح، يصعب تحديد المسؤولية القانونية بدقة في حال تسبب الذكاء الاصطناعي في ضرر غير مقصود. لكن مبدئياً، يمكن القول إن الشركة المطوِّرة للنظام أو الجهة التي تستخدمه تتحمل المسؤولية عن الأضرار الناتجة عن قرارات الذكاء الاصطناعي. ويؤكد أن الحل يكمن في وضع مشروع قانون متكامل ينظم استخدام تقنيات الذكاء الاصطناعي، ويفعل المساءلة والرقابة البشرية لضمان عدم إفلات أي جهة من العقاب عند وقوع الضرر.

نحو تشريع عالمي

يختتم الدكتور العلي حديثه بالتأكيد على ضرورة صياغة اتفاقية دولية ملزمة تعالج استخدامات الذكاء الاصطناعي بما يضمن احترام حقوق الإنسان، ويحافظ على التوازن بين الابتكار والمسؤولية. ويضيف: "غياب التشريعات الواضحة يترك فراغاً قانونياً خطيراً، وقد يؤدي إلى انتهاكات واسعة النطاق. نحن بحاجة إلى تنظيم دقيق يضمن الشفافية، ويعيد للإنسان موقع السيطرة والمساءلة في مواجهة الآلة".

اخبار سورية الوطن 2_وكالات _الحرية

مشاركة المقال: