Bugün Meta, DALL-E ve Stable Diffusion gibi mevcut görüntü sentez araçlarına benzer şekilde metin veya görüntü istemlerinden yeni video içeriği oluşturabilen yapay zeka destekli bir video oluşturucu olan Make-A-Video'yu duyurdu.
Henüz herkese açık olmasa da mevcut videoların varyasyonlarını yapabilirsiniz.
Make-A-Video'nun duyuru sayfasında Meta, "şiddetli yağmurda yürüyen genç bir çift" ve "portre boyayan bir oyuncak ayı" gibi metinlerden oluşturulan örnek videoları gösteriyor. Ayrıca Make-A-Video'nun statik bir kaynak görüntü alma ve onu canlandırma yeteneğini de sergiliyor. Örneğin, bir deniz kaplumbağasının hareketsiz bir fotoğrafı, AI modelinde işlendikten sonra yüzüyormuş gibi görünebilir.
Make-A-Video'nun arkasındaki anahtar teknoloji ve bazı uzmanların beklediğinden daha erken gelmesinin nedeni, OpenAI'nin DALL-E'si gibi görüntü oluşturucularla kullanılan metinden görüntüye sentezleme ile mevcut çalışmayı geliştirmesidir. Temmuz ayında Meta, Make-A-Scene adlı kendi metinden görüntüye AI modelini duyurdu.
Make-A-Video modelini etiketli video verileri (örneğin, gösterilen eylemlerin açıklamalı açıklamaları) üzerinde eğitmek yerine, Meta bunun yerine görüntü sentezi verilerini (alt yazılarla eğitilmiş durağan görüntüler) aldı ve modelin öğrenmesi için etiketlenmemiş video eğitim verilerini uyguladı. bir metin veya görüntü isteminin zaman ve mekanda nerede bulunabileceği duygusu. Ardından görüntüden sonra ne geleceğini tahmin edebilir ve sahneyi kısa bir süre için hareketli gösterebilir.
Daha detaylı bilgi için https://makeavideo.studio/
Yorumlar