خبراء يكشفون: محدودية التحكم بإجابات الذكاء الاصطناعي رغم محاولات التأثير الرقمي المتطورة


هذا الخبر بعنوان "خبراء: التحكم بإجابات الذكاء الاصطناعي محدود رغم محاولات التأثير عليها رقمياً" نشر أولاً على موقع sana.sy وتم جلبه من مصدره الأصلي بتاريخ ٦ أيار ٢٠٢٦.
لا يتحمل موقعنا مضمونه بأي شكل من الأشكال. بإمكانكم الإطلاع على تفاصيل هذا الخبر من خلال مصدره الأصلي.
شهد قطاع البحث عبر الإنترنت تحولات جذرية خلال السنوات الأخيرة، مدفوعاً بالتصاعد السريع لتقنيات الذكاء الاصطناعي. فقد أصبحت روبوتات الدردشة التوليدية، مثل "تشات جي بي تي"، عنصراً محورياً في عمليات البحث وتوليد المعلومات، بعد فترة طويلة هيمنت فيها محركات البحث التقليدية على هذا المجال.
ووفقاً لتقرير حديث نشره موقع "ذا فيرج" التقني الأمريكي، تعتمد هذه النماذج على تحليل مكثف للمحتوى المتاح عبر الإنترنت، بآلية تشبه إلى حد ما عمل محركات البحث، لكنها تختلف في طريقة المعالجة وتوليد الإجابات.
في السابق، كان مجال "تحسين محركات البحث" (SEO) يتيح التأثير على ترتيب النتائج في محركات مثل "غوغل". ومع ظهور نماذج الذكاء الاصطناعي، برز تساؤل حول إمكانية تطبيق الأساليب ذاتها للتأثير على إجاباتها. وقد حاول بعض المسوقين الرقميين استغلال اعتماد أنظمة الذكاء الاصطناعي على المحتوى المنشور، بما في ذلك صفحات القوائم والمراجعات، بالإضافة إلى تقنيات إدخال أوامر خفية ضمن المحتوى لتوجيه استجابات النماذج. إلا أن مختصين وصفوا هذه الممارسات بأنها محدودة التأثير وغير مضمونة النتائج.
في سياق متصل، أشار تقرير صادر عن صحيفة "نيويورك تايمز" إلى أن مستقبل الاقتصاد الرقمي قد يشهد توسعاً في استخدام الذكاء الاصطناعي لتوليد المحتوى والإعلانات الموجهة، مما قد يمنح الشركات الكبرى ميزة تنافسية أكبر مقارنة بالمؤسسات الصغيرة.
لكن، وبحسب تقرير لموقع "Eureka Alert" المتخصص بالأبحاث العلمية، يظل التحكم في مخرجات الذكاء الاصطناعي محدوداً، حيث لا توجد أدلة قاطعة على إمكانية توجيه نتائجه بشكل كامل أو ثابت. هذا ما يؤكده أيضاً كتاب "الذكاء الاصطناعي: غير قابل للتفسير، وغير قابل للتنبؤ، وغير قابل للسيطرة"، الذي يوضح أن هذه التقنيات بطبيعتها لا يمكن التحكم بها بشكل كامل أو التنبؤ الدقيق بمخرجاتها، سواء في البحث أو الإجابة أو التوصية.
وتوضح تقارير تقنية حديثة، منها ما نشره موقع "MIT Technology Review"، أن نماذج الذكاء الاصطناعي التوليدي تعتمد بشكل كبير على البيانات المتاحة عبر الإنترنت، مثل المقالات والمراجعات والمحتوى المنشور. هذا يجعل جودة الإجابات مرتبطة بدقة وموثوقية المصادر الأصلية. وتشير هذه التقارير إلى أن النماذج لا "تفهم" المعلومات بالمعنى البشري، بل تولد إجابات بناءً على أنماط لغوية وإحصائية مستخلصة من كميات هائلة من البيانات.
كما يشير خبراء في مجال الذكاء الاصطناعي إلى أن محاولات التأثير على مخرجات هذه الأنظمة عبر ما يُعرف بـ"تسميم البيانات" أو إدخال محتوى مضلل قد تؤدي إلى نتائج غير دقيقة، لكنها لا تمنح تحكماً كاملاً في النظام. ووفقاً لما أورده موقع "Wired" التقني، تعمل شركات التكنولوجيا الكبرى باستمرار على تطوير آليات لرصد هذا النوع من التلاعب والحد من تأثيره، من خلال تحسين أنظمة التحقق من المصادر وتصفية البيانات أثناء التدريب والاستخدام.
تؤكد هذه المعطيات أن التعامل مع إجابات الذكاء الاصطناعي لا يزال يخضع لقيود تقنية وعلمية معقدة، مما يجعل فكرة التحكم الكامل بها أمراً غير واقعي في المرحلة الحالية.
اقتصاد
اقتصاد
تكنولوجيا
تكنولوجيا