غوغل تطلق Gemini Embedding 2: نموذج ذكاء اصطناعي متعدد الوسائط لفهم شامل للنصوص والصور والفيديو والصوت


هذا الخبر بعنوان "«غوغل» تطلق نموذج ذكاء اصطناعي جديد لفهم النصوص والصور والفيديو معاً" نشر أولاً على موقع sana.sy وتم جلبه من مصدره الأصلي بتاريخ ١٢ آذار ٢٠٢٦.
لا يتحمل موقعنا مضمونه بأي شكل من الأشكال. بإمكانكم الإطلاع على تفاصيل هذا الخبر من خلال مصدره الأصلي.
أعلنت شركة غوغل عن إطلاق نموذجها الجديد للذكاء الاصطناعي، الذي يحمل اسم Gemini Embedding 2. يُعد هذا النموذج متعدد الوسائط، حيث يتميز بقدرته على تحليل النصوص والصور والصوت والفيديو ضمن إطار عمل موحد، وذلك في مسعى لتعزيز قدرة الأنظمة الذكية على استيعاب البيانات بمختلف صيغها.
ووفقاً لما ذكره موقع TechCrunch، المتخصص في أخبار التكنولوجيا، فإن هذا النموذج المبتكر يربط بين أنواع المحتوى المتنوعة ضمن مساحة تحليلية واحدة. هذا التكامل يمكّن الذكاء الاصطناعي من فهم المفاهيم بغض النظر عن شكلها، سواء كانت نصاً مكتوباً، أو صورة، أو مقطع فيديو، أو ملفاً صوتياً.
وأفادت غوغل بأن Gemini Embedding 2 يمثل الجيل الجديد من تقنيات التضمين، متجاوزاً النموذج السابق الذي كان مقتصراً على تحليل النصوص فقط. وقد أصبح النموذج الجديد قادراً على استيعاب المعاني والسياقات في أكثر من 100 لغة، وهو متاح حالياً للمعاينة العامة عبر منصة Gemini API ومنصة الذكاء الاصطناعي السحابية Vertex AI.
وتتوقع الشركة أن تسهم هذه التقنية المتقدمة في تطوير تطبيقات الذكاء الاصطناعي المتطورة، مثل البحث الدلالي وتحليل البيانات وتنظيمها. كما ستدعم أنظمة توليد الإجابات المعززة بالمصادر الخارجية، مما يعزز بشكل كبير قدرة النماذج الذكية على معالجة المعلومات المعقدة بطريقة أكثر شمولية وتكاملاً.
علوم وتكنلوجيا
تكنولوجيا
علوم وتكنلوجيا
علوم وتكنلوجيا