الجانب المظلم للذكاء الاصطناعي التوليدي: مخاطر "الهلاوس" وكيفية كشفها


هذا الخبر بعنوان "تحذيرات من “هلاوس” إجابات الذكاء الاصطناعي" نشر أولاً على موقع enabbaladi.net وتم جلبه من مصدره الأصلي بتاريخ ١٨ كانون الثاني ٢٠٢٦.
لا يتحمل موقعنا مضمونه بأي شكل من الأشكال. بإمكانكم الإطلاع على تفاصيل هذا الخبر من خلال مصدره الأصلي.
مع تزايد الاعتماد العالمي على نماذج الذكاء الاصطناعي التوليدي، مثل "تشات جي بي تي" من شركة "OpenAI"، و"جيميناي" من "جوجل"، و"كوبايلوت" من "مايكروسوفت"، يبرز مفهوم "الهلاوس" كتحدٍّ تقني جوهري يواجه المستخدمين. تُعرّف "الهلاوس" بأنها الإجابات التي يقدمها الذكاء الاصطناعي وتبدو واقعية ومقنعة للغاية من حيث الصياغة اللغوية، لكنها في حقيقتها غير صحيحة أو لا تستند إلى أي أساس واقعي.
تُعد هذه الظاهرة خللاً بنيوياً في تصميم هذه الأنظمة، إذ لا تعتمد في توليد إجاباتها على التحقق الدقيق من المعلومات، بل على التنبؤ بالكلمات التالية بناءً على أنماط لغوية مستخلصة من بيانات التدريب الضخمة. ونتيجة لذلك، قد تكون الإجابة متماسكة لغويًا بشكل مثير للإعجاب، لكنها بعيدة كل البعد عن الحقيقة. للتعامل بوعي وحذر مع هذه النماذج الذكية، من الضروري أن يكتسب المستخدمون القدرة على التعرف على العلامات التحذيرية التي تشير إلى وجود "هلاوس".
يُعد استخدام الذكاء الاصطناعي لتوليد تفاصيل دقيقة للغاية تبدو حقيقية للوهلة الأولى أحد أكثر مظاهر "الهلاوس" إزعاجًا. قد يتضمن الرد تواريخ وأسماء وأرقامًا محددة، وحتى أسماء مقالات أو مؤلفين، مما يعزز الإحساس بالموثوقية لدى القارئ. لكن هذه التفاصيل قد تكون مختلقة بالكامل.
يعتمد الذكاء الاصطناعي على توليد محتوى يحاكي الأنماط اللغوية التي تدرب عليها، وقد يبتكر أسماء ومعلومات تتوافق مع بنية إجابة صحيحة، دون أن يستند إلى مصدر حقيقي. على سبيل المثال، قد يذكر اسم شخصية حقيقية، ويضيف إليها مواقف أو تصريحات لم تحدث قط، مما يصعّب على القارئ تمييز الحقيقة من الزيف، خاصة إذا لم تكن لديه خلفية مسبقة عن الموضوع. لهذا السبب، من الأهمية بمكان التحقق من أي معلومة قد تؤثر على قرارات المستخدم. فإذا لم يتمكن من العثور على المصدر أو الاسم أو التاريخ المذكور في أي مكان آخر، فمن المحتمل أنه يقرأ "هلاوس" أنتجها النظام الذكي.
لا تظهر "الهلاوس" دائمًا مصحوبة بالشك أو التردد، بل على العكس، غالبًا ما يقدم الذكاء الاصطناعي إجاباته بصيغة واثقة وسلسة، حتى عندما تكون المعلومات خاطئة تمامًا. يعود ذلك إلى آلية تصميم النماذج، حيث يتم تحسينها لإنتاج نصوص تبدو منطقية ومتسقة لغويًا. وبدلاً من أن تعترف بعدم المعرفة أو تشكك في المعلومة، تميل هذه النماذج إلى تقديم إجابات شاملة توحي بالإحاطة الكاملة بالموضوع.
في حين أن الخبراء من البشر قد يستخدمون تعبيرات مثل "لست متأكدًا" أو "هذا يخضع للنقاش"، فإن "روبوتات" الذكاء الاصطناعي نادرًا ما تستخدم هذه الصيغ، على الرغم من أنها بدأت مؤخرًا في إظهار بعض الحذر في الإصدارات الحديثة. في مواضيع حساسة مثل الطب أو العلوم أو المسائل القانونية، حيث تكون الحقائق محل نقاش أو تتغير باستمرار، فإن تقديم إجابة قاطعة قد يكون مؤشرًا قويًا على وجود "هلاوس"، لأن النموذج قد يكون قد استكمل فراغًا معرفيًا بسرد غير حقيقي بدلاً من الإشارة إلى وجود خلاف أو عدم وضوح.
في كثير من الأحيان، يزود الذكاء الاصطناعي المستخدم بإجابات تتضمن مراجع وأسماء مصادر تبدو موثوقة للغاية، لكن عند التحقق منها، يكتشف أنها غير موجودة على الإطلاق. يشكل هذا النوع من "الهلاوس" خطرًا بالغًا، لا سيما في الأوساط الأكاديمية أو المهنية. فقد يقوم طالب بإعداد مراجعة أدبية استنادًا إلى مجموعة من المراجع، ليتبيّن لاحقًا أن جميعها وهمية.
غالبًا ما تكون هذه المراجع مكتوبة بأسلوب متقن، وتشمل أسماء دوريات أكاديمية وأسماء مؤلفين وأرقام صفحات، مما يزيد من صعوبة اكتشاف زيفها دون بحث معمق. لتفادي هذا الفخ، ينبغي التأكد من صحة أي ورقة علمية أو مرجع أو اسم مؤلف عبر قواعد بيانات موثوقة أو عبر محركات البحث المباشر. إذا لم تظهر أي نتائج حقيقية، فقد تكون بصدد "مرجع غير موجود" صنعه النموذج ليضفي على إجابته طابعًا أكاديميًا.
حتى وإن بدت الإجابات صحيحة في ظاهرها، فإن التناقض بين الردود قد يكون علامة حاسمة على "الهلاوس". على سبيل المثال، إذا طرحت على "ChatGPT" سؤالًا معينًا وتلقيت إجابة مفصلة، ثم طرحت سؤال متابعة مرتبطًا بالإجابة السابقة، ووجدت أن النموذج يناقض نفسه، فهناك احتمال كبير أن تكون إحدى الإجابتين خاطئة.
تُعد هذه الطريقة فعالة في كشف "الهلاوس"، لأن النموذج لا يمتلك قاعدة بيانات حقيقية يعود إليها لضمان الاتساق المعرفي. وبالتالي، فإن التناقض في الإجابات، خاصة ضمن سياق واحد، يكشف هشاشة المحتوى وغياب الأساس المعرفي الحقيقي الذي يُفترض أن تستند إليه الإجابات.
في بعض الأحيان، حتى لو بدت الإجابة متماسكة لغويًا، فإن محتواها قد يصطدم بالواقع أو بالعقل السليم. من المعروف أن نماذج الذكاء الاصطناعي لا تفكر كما يفعل الإنسان، بل تقوم فقط بتنبؤ تسلسلات لغوية. لذلك، قد تبدو بعض الإجابات معقولة على الورق، لكنها تنهار عند إخضاعها للتفكير المنطقي أو التجربة العملية.
في حادثة شهيرة، اقترح نموذج ذكاء اصطناعي أن يُضاف الغراء إلى صلصة البيتزا لكي يلتصق الجبن بشكل أفضل. وعلى الرغم من أن هذا قد يبدو منطقيًا لغويًا في سياق معين، إلا أنه يخالف أبسط مبادئ الطهو والصحة العامة. هذا النوع من الأخطاء ناتج عن اعتماد النماذج على تركيب لغوي قائم على أنماط محفوظة، وليس على فهم فعلي للعالم أو للقوانين الفيزيائية والبيولوجية.
في الختام، تُعد "الهلاوس" جزءًا لا يتجزأ من طبيعة نماذج الذكاء الاصطناعي الحالية. وطالما أن هذه النماذج تعتمد على تنبؤ الكلمات وليس على التحقق من الحقائق، فإن هذه المشكلة ستستمر في الظهور. من هنا، تصبح القدرة على التمييز بين المحتوى الحقيقي والزائف مهارة أساسية في العصر الرقمي. فلا ينبغي الوثوق الأعمى بالإجابات التي تقدمها هذه الأنظمة، بل يجب التعامل معها بعين ناقدة، وممارسة التحقق المستمر، خاصة في المواضيع الحساسة التي تتطلب دقة وموثوقية عالية.
اقتصاد
تكنولوجيا
تكنولوجيا
تكنولوجيا