Популярний віртуальний помічник Amazon зможе імітувати голоси, в тому числі тих, хто помер. Досить невеликого зразка їхнього голосу із запису.
Рохіт Прасад, віце-президент і головний науковець Alexa, оголосив про нові можливості голосового помічника. Завдяки технології, розробленій компанією, помічник зможе імітувати голос практично будь-кого менш ніж за хвилину запису. Однак поки не вказано, коли ця функція буде доступна на пристроях.
Під час конференції, що проходила в Лас-Вегасі, компанія представила, як вона буде виглядати. На показаному відео дитина запитала: «Бабусю, ти можеш дочитати для мене «Чарівника з країни Оз»?» І з пристрою пролунав голос старої жінки.
Alexa буде імітувати голос мертвих людей
Сама технологія не нова, як і ідея використовувати її для фактичного «оживлення» мертвих. Британський «Гардіан» нагадує Джошуа Барбо, який навчив чат-бота GPT-3, щоб він міг «розмовляти» зі своєю нареченою, яка померла вісім років тому.
Прасад, окреслюючи заплановану корисність Alexa, зазначив, що під час пандемії коронавірусу «багато з нас втратили когось, кого ми любимо». Він додав: «Хоча ШІ не може усунути біль від втрати коханої людини, він, безумовно, може зробити її спогади тривалими».
Однак імітація голосів викликає суперечки. The Guardian зазначає, що за кілька годин до того, як Amazon оголосила про свої плани, інший технологічний гігант, Microsoft, опублікував свої етичні принципи щодо використання штучного інтелекту. Також виникає питання про те, що пристрій використовує чужий голос. «Легко уявити, як це можна використати, щоб видавати себе за ораторів і обманювати слухачів», — цитує портал директора зі штучного інтелекту Наташу Кремптон.
ДИВІТЬСЯ ТАКОЖ: Твердження, що штучний інтелект свідомий, як дитина. Інженер Google призупинено
Технолог Engadget.com посилається на думку експертів з безпеки, які побоюються, що імітація голосів може прокласти шлях до потоку нових шахрайств. Приклади вже є. У 2020 році використання голосу конкретної особи зробило можливим шахрайство в Об’єднаних Арабських Еміратах. Злочинці, які використовували його, обманом змусили менеджера банку переказати 35 мільйонів доларів, видаючи себе за директора компанії, з яким він раніше спілкувався.
Наразі Алекса може видавати себе за, наприклад, … кота.
ДИВІТЬСЯ ТАКОЖ: Тест Тьюринга. Чи може штучний інтелект «обдурити» людину?
Основне джерело фото: Shutterstock