السبت, 7 يونيو 2025 01:14 AM

اتهامات بالتجسس الذكي: هل استنسخت "ديب سيك" الصينية بيانات "جيميني" لتطوير نموذجها؟

اتهامات بالتجسس الذكي: هل استنسخت "ديب سيك" الصينية بيانات "جيميني" لتطوير نموذجها؟

أطلقت شركة "ديب سيك" الصينية نسخة محدثة من نموذجها للذكاء الاصطناعي R1، محققة أداءً متميزًا في اختبارات البرمجة والرياضيات. لكن النموذج يواجه اتهامات باستخدام بيانات "جيميني" التابع لـ "غوغل" في تدريبه.

لم تكشف "ديب سيك" عن مصادر بيانات التدريب، لكن باحثين ومطورين في مجال الذكاء الاصطناعي يرجحون أن بعض مكونات النموذج الجديد دُربت على مخرجات "جيميني". سام بايتش، مطور مقيم في ملبورن، نشر على "إكس" مؤشرات لغوية تظهر تشابهًا كبيرًا في الأسلوب التعبيري بين النموذج الصيني R1-0528 و"جيميني 2.5 برو" من "غوغل".

مطور آخر أشار إلى تشابه "آثار التفكير" بين R1 و"جيميني"، مما يعزز الشكوك حول وجود تقاطعات في البيانات التدريبية.

ليست هذه المرة الأولى التي تُتهم فيها "ديب سيك" بالاستفادة من نماذج منافسة. ففي ديسمبر الماضي، لاحظ مطورون أن نموذج V3 كان يُعرّف نفسه أحيانًا على أنه "شات جي بي تي".

بحسب "فاينانشال تايمز"، رصدت "OpenAI" دلائل على استخدام "ديب سيك" تقنية التقطير لاستخلاص المعرفة من نماذج أكبر. كما اكتشفت "مايكروسوفت" عمليات تسريب بيانات من حسابات مطورين يُعتقد أنها مرتبطة بـ "ديب سيك".

شروط استخدام نماذج "OpenAI" تمنع استخدام المخرجات لبناء نماذج منافسة، مما يثير تساؤلات قانونية.

بيئة الإنترنت المفتوحة أصبحت ملوثة بمحتوى منشأ بالذكاء الاصطناعي، مما يزيد من صعوبة التحقق من "نقاء" البيانات التدريبية.

خبراء مثل ناثان لامبرت من معهد AI2 لا يستبعدون استخدام "ديب سيك" لبيانات مستخرجة من "جيميني"، خاصة في ظل شح وحدات المعالجة الرسومية.

شركات الذكاء الاصطناعي الكبرى بدأت بتشديد إجراءات الأمان. "OpenAI" فرضت عملية تحقق إلزامية لاستخدام نماذجها المتقدمة، مع استبعاد الصين. "غوغل" بدأت بتلخيص آثار النماذج ضمن AI Studio، و"أنثروبيك" أعلنت عن تلخيص آثار نموذجها أيضًا.

ملف "ديب سيك" يطرح أسئلة حول أخلاقيات الذكاء الاصطناعي في ظل غياب إطار عالمي موحد للضوابط والمعايير.

مشاركة المقال: