Телефонні шахрайства та Штучний Інтелект

У групі “Українці в Іспанії” на ФБ був допис про незрозумілу аферу. Дзвонять з різних номерів, розмовляють російською і питають про якогось Павла. Чують українську і кладуть слухавку. Декілька людей на таке там поскаржилось.

Є ймовірність що там насправді шукають російського “Павла”, бо відразу кладуть слухавку, як почують українську. Але може бути й новий лохотрон. Хтось навіть припустив, що голос записують, щоб потім використати в майбутньому шахрайстві.

Ось це мені стало цікаво – чи можливо записати голос таким чином, щоб потім на його підставі штучно створювати фрази, які будуть звучати так, ніби говорите ви самі.

Виявилось, що таке можливо і цим вже користаються. Наскільки я зрозумів поки що не в реальному часі, а наперед записуючи розмову і залишаючи її на голосовій пошті. Але з часом, напевно, з’явиться дешевий механізм, що накладає фільтр на ваш голос і змушує його звучати, як голос іншої людини.

Журналістка CBS провела розслідування на цю тему. Швидким пошуком в Ґуґл вона знайшла сайт на якому всього за 5 баксів і декілька хвилин можна почати генерувати фейкові звукові записи. Для цього потрібно лише завантажити 30-секундний аудіокліп з потрібним голосом, набрати потрібний текст на клавіатурі і насолоджуватись результатом. Такий підхід називається клонування голосу.

На подібну махінацію ледь не купився навіть американський адвокат, що спеціалізується на шахрайстві. По телефону він почув голос сина, який сказав, що потрапив в автокатастрофу, зламав ніс, збив вагітну жінку, його арештували, а зараз він в тюрмі і потребує допомоги. Адвокат каже, що він не “думав, що це мій син, я знав, що це мій син”. Протягом наступних хвилин він встиг порозмовляти ще з двома людьми (адвокатом та банківським клерком), а по дорозі до банку задзвонив до невістки. І тільки тоді та зв’язалася з чоловіком, який передзвонив батьку і заспокоїв, що з ним все гаразд і платити 9 тисяч баксів за його звільнення не треба.

Читати:  ChatGPT - це нісенітниця

Незрозуміло, як захиститися від подібних махінацій, які настільки добре б’ють по людським емоціям. Можна звичайно тримати голову холодною і не вірити нічому, але в реальному житті так не буває. Закони теж навряд чи допоможуть в цьому випадку. Бо технології вже існують, і повністю їх не заборониш. Навіть якщо до згенерованих Штучним Інтелектом роликів змусять додавати якийсь водяний знак, то завжди будуть піратські моделі без водяних знаків.

Єдиним дієвим способом, здається, є використання кодового слова, про яке не знають злочинці, але знають співрозмовники. Але тут теж можна натиснути на емоції і переконати знервовану людину, що зараз на це немає часу.

Залишити коментар

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *