قدمت شركة "غوغل" الجيل التالي من الذكاء الاصطناعي، الذي يسمح بتحويل الصور والنصوص إلى فيديو عبر مولد "Lumiere".
وعلى مدى السنوات القليلة الماضية، انتقلت تطبيقات الذكاء الاصطناعي من مختبرات الأبحاث إلى المستخدمين؛ فمثلا، تم دمج برامج مثل "ChatGPT" مع المتصفحات؛ ما يسمح للمستخدمين بإنشاء نصوص بطرق غير مسبوقة.
ومؤخرا، أتاحت برمجيات تحويل النص إلى صورة للمستخدمين إنشاء صور سريالية، كما أتاحت برمجيات تحويل النص إلى فيديو للمستخدمين إنشاء مقاطع فيديو قصيرة باستخدام بضع كلمات فقط.
لم تكن "غوغل" لاعبا كبيرا في فئة تحويل النص إلى فيديو، لكنها أصدرت ببطء نماذج ذكاء اصطناعي أكثر تقدمًا، واتجهت نحو التركيز على الوسائط المتعددة.
وأخذ فريق غوغل فئة تحويل النص إلى فيديو إلى آفاق جديدة، من خلال الإعلان عن مولد لتحويل النص إلى فيديو يسمى "Lumiere".
ومن المحتمل أن الاسم تم اختياره نسبة للأخوين "Lumiere"، اللذين كانا رائدين في معدات التصوير الفوتوغرافي المبكرة، إذ قام فريق من الباحثين في مجال الذكاء الاصطناعي في "Google Research" بتطوير الجيل التالي من مولد تحويل النص إلى فيديو المستند إلى الذكاء الاصطناعي، والذي يسمح للمستخدمين بكتابة جملة بسيطة، مثل "شخصين يرقصان معًا"، والحصول بعدها على مقطع فيديو مكتمل بدقة عالية يظهر شخصين يرقصان بالفعل.
ويمثل "Lumiere" الجديد، الخطوة التالية في تطوير برمجيات تحويل النص إلى فيديو من خلال إنشاء نتائج أفضل بكثير، فبالإضافة إلى تحويل النص إلى فيديو، سيسمح "Lumiere" أيضًا بالتحويل من صورة إلى فيديو.
وتصف "غوغل" التكنولوجيا التي تقف وراء البرمجية الجديدة بأنها بنية "Space-Time U-Net" الرائدة، وتم تصميم هذه البنية لإنشاء فيديو رسوم متحركة في تمريرة نموذجية واحدة.
وأضافت "غوغل" ميزات مثل السماح للمستخدمين بتحرير مقطع فيديو موجود، من خلال تسليط الضوء على جزء منه، أو كتابة التعليمات، أو تغيير لون شيء ما في الفيديو إلى لون آخر.
كما يمكنك القيام أيضًا بعمل رسوم سينمائية، حيث يمكن إبراز جزء أو كل الصورة الثابتة، وجعلها متحركة.
ولم تحدد "غوغل" ما إذا كانت تخطط لإصدار "Lumiere" وتوزيعه على الجمهور، ويرجع ذلك على الأرجح إلى التداعيات القانونية الواضحة التي قد تنشأ بسبب احتمال إنشاء مقاطع فيديو تنتهك قوانين حقوق الطبع والنشر والخصوصية.
وأشارت الشركة إلى أن هناك خطر إساءة الاستخدام لإنشاء محتوى مزيف أو ضار، مؤكدة أنه من الضروري تطوير وتطبيق أدوات لكشف حالات الاستخدام الضار؛ لضمان تجربة آمنة وعادلة للمستخدمين.