Діпфейки. Що це таке та як з ними боротися

Розвиток інформаційного суспільства у XXI столітті породив поняття «фейків», фейкових новин — неправдивої інформації про важливі події та людей, що змінює розвиток подій у вигідну сторону. Розвиток технології штучного інтелекту призвів до створення діпфейків, deepfake — аудіо- або відеозаписів, що підроблюють голос та зовнішність людини. ШІ накладає на іншу людину маску, наприклад, політика. Створюється відео, де політик фактично говорить чужими устами, але своїм голосом, що дуже складно відрізнити від оригіналу.

Хакери використовують машинне навчання ШІ, щоб клонувати голос іншої людини. Діпфейки використовуються і в шахрайстві — «клони» можуть переконати відправити гроші, куди не варто. Клонований голос звучить переконливо.

Компанія NISOS, що займається консалтингом у сфері безпеки, випустила звіт, в якому аналізується один з випадків шахрайства за допомогою діпфейків. Аудіозапис опублікувало видання Motherboard. Запис — голосова пошта одного зі співробітників неназваної технологічної компанії. Клонований голос директора компанії попросив співробітника «негайно допомогти із завершенням термінової комерційної угоди».

Якість голосу не можна назвати відмінною. Навіть з урахуванням поганого сигналу голос виглядає роботизованим. Але слова можна розібрати. Грає роль психологічний фактор — молодший співробітник, отримавши повідомлення від свого начальника, рознервувався і не думатиме про якість звуку.

«Ви могли б сказати, що з аудіо було щось не так, — каже дослідник з NISOS Дев Бадло. — Схоже, що вони в основному брали записи, вирізали слова, а потім склали їх у новому порядку». Крім того, підробку виявляє кількість різких піків та падінь, яких немає у нормальній мові. Також не було фонового шуму.

«Це безперечно звучить як людина, — говорить Роб Волкерт, дослідник з компанії NISOS, – але не як генеральний директор». На думку Волкерта, хакери зараз досліджують, як такі записи впливатимуть на потенційних жертв.

Спроба шахраїв не увінчалася успіхом. Співробітник, який отримав аудіоповідомлення, відчув щось недобре, і уточнив ситуацію в юридичному відділі компанії. Але в майбутньому такі атаки будуть траплятися все частіше, оскільки інструменти штучного інтелекту стають все більш доступними.

Все, що вам потрібно для створення голосового клону — це доступ до великої кількості записів голосу. Чим більше є даних і чим кращою є якість голосу, тим правдоподібнішим вийде клонований голос. Записи голосу багатьох керівників компаній легко можуть бути зібрані з телефонних дзвінків, інтерв’ю та виступів. І при достатньому ресурсі результат може вийти набагато більш переконливим, ніж у прикладі вище.

Найвідоміший і перший зареєстрований приклад аудіо-діпфейка трапився 2019 року, коли виконавчого директора британської енергетичної компанії «нагріли» на 220 тисяч євро, які треба було відправити нібито угорському постачальнику після дзвінка з головного офісу в Німеччині. CEO сказали, що це терміновий переказ, і гроші потрібно відправити протягом години. Він так і зробив. Шахраїв досі не знайшли.

Раніше в цьому році Федеральна торгова комісія США попередила про зростання кількості подібного шахрайства. Але, за словами експертів, є легкий спосіб впоратися з ними. Потрібно просто покласти трубку і зв’язатися з тією людиною, від імені якої говорять шахраї. А ось рецепта, як боротися з діпфейкамі політиків, ще немає.