الأربعاء, 16 يوليو 2025 11:12 PM

كيف تضلل النماذج اللغوية الذكاء الاصطناعي: التضليل الرقمي يتغذى على نفسه

كيف تضلل النماذج اللغوية الذكاء الاصطناعي: التضليل الرقمي يتغذى على نفسه

يبدو أن أدوات الذكاء الاصطناعي أصبحت جزءاً من منظومة إنتاج التضليل، ولم تعد مجرد ضحية له. فما كان من المفترض أن يكون وسيلة للمساعدة على الفهم والتدقيق، تحول إلى آلية لإعادة تدوير الأكاذيب والمعلومات المشوهة التي تنتجها البيئة الرقمية.

هذه النماذج، وعلى رأسها "تشات جي بي تي" و"غروك"، تتغذى على كل ما تحتويه الإنترنت، وتمزج الجيد بالرديء دون تمييز، ثم تقدمه للمستخدم بثقة لا تتناسب مع محتوى هش أو زائف.

يكشف حجم المشكلة قدرة هذه الأدوات على نشر معلومات غير دقيقة، خاصة في سياق الأخبار العاجلة، حيث يندر وجود مصادر موثوقة وتتسابق المواقع والمنصات لتقديم روايات متضاربة. ففي واقعة حديثة مرتبطة بالاحتجاجات في لوس أنجلوس، لجأ البعض إلى أدوات الذكاء الاصطناعي للتحقق من صور انتشرت على نطاق واسع، ليكتشفوا أن الردود التي حصلوا عليها تعود إلى مناسبات أخرى لا علاقة لها بالحدث، مما ساهم في تضخيم الشكوك بدلاً من تفنيدها.

لا يعود الخلل إلى سوء نية في تصميم هذه الأنظمة، بل إلى بنية تدريبها نفسها. فهي تتعامل مع الكم الهائل من المحتوى الرقمي على قدم المساواة من حيث القيمة والمصداقية، دون اعتبار لمصدره أو درجة موثوقيته. فالأخبار الملفقة والمقالات المشبوهة والمحتوى المكرر من مصادر غير موثوقة، كلها تندرج ضمن ما يستخدم لتوليد الردود. وكلما تكرر المحتوى، زاد احتمال ظهوره مرة أخرى على لسان الأداة.

وقد أكد تقرير صادر عن منظمة NewsGuard في يناير 2025 أن النماذج اللغوية، ومنها ChatGPT وGrok، تميل إلى "ابتلاع التضليل وإعادته للمستخدم"، خاصة عندما تكون المعلومات منتشرة على الإنترنت وتفتقر إلى سياقات موثوقة. وأوضح التقرير أن هذه النماذج لا تمتلك آلية تحقق داخلية فعالة، بل تميل إلى تكرار المعلومات التي تتكرر أمامها بغض النظر عن صحتها. وذكر أن عشرة من أبرز أدوات الذكاء الاصطناعي كررت معلومات مضللة بنسبة وصلت إلى 40% عند التعامل مع قضايا آنية أو متنازع عليها، وهو ما ينسجم تماماً مع ملاحظات الباحثين حول أن هذه النماذج مصممة لتقديم ردود تبدو مفيدة أكثر من كونها دقيقة.

تتعمق الأزمة أكثر مع تصاعد الاعتماد على هذه الأدوات كمصادر للمعرفة الفورية. فبدلاً من البحث والتقصي، يكتفي كثير من المستخدمين بسؤال روبوت دردشة افتراضي، ثم يبنون مواقفهم أو قراراتهم على أساس الرد الذي يحصلون عليه. وما يزيد الأمر سوءاً هو أن هذه الأدوات لا تتوقف عند حدود المعلومات القديمة، بل تبحث أيضاً في الإنترنت لحظياً، مما يجعلها عرضة لالتقاط التضليل الذي ينتشر بسرعة في لحظات الالتباس أو الفراغ المعلوماتي.

في الوقت نفسه، تتراجع آليات التحقق التقليدية على منصات التواصل الاجتماعي. أنظمة الإشراف تم تفكيكها أو إضعافها لصالح نماذج تعتمد على مساهمات المستخدمين. وهو ما يدخل بيئة الإنترنت في مرحلة جديدة من الفوضى، تتغذى فيها نماذج الذكاء الاصطناعي على محتوى أقل مصداقية، وتعيد توزيعه بسرعة وكأنها جزء من آلة دعاية غير مقصودة.

هذا الانكشاف أمام التلوث المعلوماتي لا يحدث بالصدفة. هناك جهات تنشط عمداً لنشر محتوى زائف بغرض تسميم أدوات الذكاء الاصطناعي، في عملية تعرف بـ "LLM grooming". ينشئ هؤلاء مواقع متشابهة ومتكررة، ويضخون عبرها مقالات متطابقة، حتى تصبح جزءاً من نسيج البيانات التي تعتمد عليها هذه النماذج في صياغة إجاباتها. وكلما ازداد تعقيد هذا التكتيك، ازداد صعوبة تتبع أثره أو تفاديه.

وسط هذا المشهد، لا يمكن اعتبار الذكاء الاصطناعي مرجعاً معرفياً موثوقاً، خاصة في المواضيع المتنازع عليها أو تلك المرتبطة بالراهن السياسي والاجتماعي. بل إن ما يقدمه قد يكون انعكاساً مشوشاً لما هو رائج وليس لما هو صحيح.

تكمن الخطورة ليس فقط في تداول معلومات خاطئة، بل في الاعتماد المتزايد على هذه الأدوات في اتخاذ قرارات فعلية. فحين تدمج هذه الأنظمة في البنى الإدارية أو الإعلامية أو السياسية، دون رقابة صارمة على نوعية البيانات التي تعتمد عليها، نكون أمام تحول جذري في طريقة تشكل الرأي العام، مبني على تصورات مغلوطة لا على حقائق مدققة.

في النهاية، لا مفر من العودة إلى دور الإنسان: المراجعة والتحقق والمقارنة بين المصادر. فالذكاء الاصطناعي لن يميز الحقيقة ما لم نعلمه كيف يفعل، ولن يفعل ذلك ما دامت بياناته مشوبة ومصدرها عالم رقمي بلا حراسة.

أخبار سوريا الوطن١-وكالات-النهار

مشاركة المقال: