OpenAI, Sora adlı yeni bir yapay zeka sistemi tanıttı. Sora, metin açıklamalarını fotoğraf gerçekçiliğinde videolara dönüştürebilen bir programdır. Bu video üretim modeli, yapay derin sahte videoların yanlış bilgi ve dezinformasyonu artırmasıyla ilgili büyüyen endişelerin yanı sıra AI teknolojisinin gelişimine dair heyecan yaratmaktadır.
Sora AI modeli şu anda yalnızca metin talimatlarıyla veya metin ile birlikte bir görüntü kullanarak 60 saniyeye kadar video oluşturabilmektedir. Bir tanıtım videosu, “şık bir kadının, sıcak parlayan neonlarla dolu Tokyo bir sokakta yürüdüğü ve animasyonlu şehir tabelalarıyla dolu” şeklinde bir metin girişiyle başlamaktadır. Diğer örnekler arasında karlar içinde oynayan bir köpek, yollarda ilerleyen araçlar ve şehir gökdelenleri arasında havada yüzen köpekbalıkları gibi daha fantastik senaryolar bulunmaktadır.
Sora’nın videoları hala bazı hatalar içermektedir, örneğin yürüyen bir insanın sol ve sağ bacaklarının yer değiştirmesi, bir sandalyenin rastgele havada süzülmesi veya bir ısırılmış kurabiyenin sihirli bir şekilde ısırık izi taşımaması gibi. Bununla birlikte, NVIDIA’da kıdemli bir araştırma bilim insanı olan Jim Fan, Sora’yı “veri odaklı bir fizik motoru” olarak öven bir sosyal medya platformu olan X’e katıldı.
Sora’nın videoları karmaşık sahneleri ve hareketli nesneleri tasvir ederken hala bazı garip hatalar içermesi, bu tür derin sahte videoların şu anda tespit edilebilir olacağını göstermektedir. Bununla birlikte, Princeton Üniversitesi’nden Arvind Narayanan, uzun vadede “toplum olarak uyum sağlamak için başka yollar bulmamız gerekeceğini” uyarısında bulundu.
Sora’nın halka açık hale gelmeden önce “kırmızı takım” egzersizleri gerçekleştirmesi önemlidir. Bu egzersizlerde uzmanlar, AI modelinin güvenlik önlemlerini kırmaya çalışarak potansiyel kötüye kullanımını değerlendirmektedir. Şu anda Sora’yı test eden seçkin grup insan, “yanlış bilgi, nefret içeren içerik ve önyargı gibi alanlarda uzman” kişilerdir.
Yapay videolar, kötü niyetli kişilerin, örneğin birini taciz etmek veya siyasi bir seçimi etkilemek için sahte görüntüler oluşturmasına izin verebilir. Yapay zeka uzmanları da dahil olmak üzere akademide, iş dünyasında, hükümette ve diğer sektörlerde liderler için AI tarafından üretilen derin sahte videolarla beslenen yanlış bilgi ve dezinformasyon, büyük bir endişe kaynağıdır.
Sora’nın halka daha geniş bir şekilde sunulma planı olup olmadığı sorulduğunda, OpenAI sözcüsü şirketin “Sora’yı OpenAI’nin ürünlerinde sunmadan önce birkaç önemli güvenlik adımı attığını” belirtti. Örneğin, şirket zaten ticari AI modellerinin aşırı şiddet, cinsel içerik, nefret dolu görseller ve gerçek siyasetçiler veya ünlüleri tasvir etmesini önlemeye yönelik otomatik süreçler kullanmaktadır.
Sora’nın halka açılmasıyla muhtemelen ortaya çıkacak yanlış bilgi ve dezinformasyonun ölçeğiyle başa çıkmak için AI şirketlerinin sosyal medya ağları ve hükümetlerle işbirliği yapması gerekecektir. Savunmalar arasında, AI tarafından üretilen içeriklere benzersiz tanımlayıcılar veya “filigranlar” uygulamak yer alabilir.