Amazon, Alexa'ya ölü akrabaların sesini taklit etmeyi öğretiyor

Amazon, Alexa sesli asistanının bir dakikadan daha kısa bir süre konuştuklarını duyduktan sonra herhangi bir insan sesini taklit etmesini sağlayacak yetenekler geliştiriyor. Özelliğin potansiyel ürkütücülüğünü göz ardı eden bazıları, kötüye kullanım potansiyeli konusunda endişeli.

Amazon'da Alexa ekibine liderlik eden Rohit Prasad, projenin amacının pandemi sonucunda "çoğumuz sevdiğimiz birini kaybettikten" sonra "anıları kalıcı kılmak" olduğunu söyledi.

Alexa, önceden kaydedilmiş ses kullanarak bir sesi taklit etmek üzere eğitilebilir; bu, kişinin kaynak olarak hizmet etmesi için orada olması veya hatta hayatta olması gerekmediği anlamına gelir. Bu hafta bir konferans sırasında gösterilen bir video bölümünde, bir çocuk Alexa'ya büyükannesinin Oz Büyücüsü'nü okumayı bitirip bitiremeyeceğini sordu. Tabii ki, Alexa çocuğun büyükannesiyle alay etmek ve hikayeyi okumayı bitirmek için sesleri değiştirir.

Prasad, sunum sırasında Alexa'nın artık dünya çapında 70'den fazla ülkede 17 dilde yüz milyonlarca Alexa özellikli cihazdan haftada milyarlarca istek aldığını söyledi.

Suistimal potansiyeli yüksek görünüyor. Örneğin, araç, yanlış bilgilendirme kampanyaları veya siyasi propaganda için ikna edici derin sahtekarlıklar oluşturmak için kullanılabilir. Dolandırıcılar, 2020'de dolandırıcıların bir banka yöneticisini kandırarak var olmayan bir satın almayı finanse etmek için 35 milyon dolar transfer etmesi gibi, finansal kazanç için yeteneklerinden yararlanabilir.

konuyla ilgili düşüncelerin neler? Amazon burada ses klonlama kavramını biraz fazla mı ileri götürüyor, yoksa mezardan çıkan biriyle "konuşma" fikri ilginizi mi çekiyor?

Bu haberi beğendiniz mi? Bültenimize katılarak haberdar olun!

Yorumlar

Yorum yazmak için giriş yapmalısınız.

Yazar Hakkında

Anlikhaber'i kurup kullanıcılara para kazandırmayı hedefledik ve sonunda yaptık sizin yapmanız gereken haberlerinizi ekleyip para kazanmaya başlayabilirsiniz.