Як штучний інтелект вплине на кіберзлочинність майбутнього

Міжрегіональний науково-дослідний інститут ООН з питань злочинності та правосуддя, Інтерпол та компанія Trend Micro, що спеціалізується на кібербезпеці, підготували доповідь під назвою «Зловмисне використання і зловживання штучним інтелектом». Під цими термінами учасники доповіді мають на увазі ботів, діпфейки та інші інструменти з ознаками штучного інтелекту, що використовуються для злому і маніпуляцій.

«Процес» переказує суть доповіді.

Діпфейки облич, голосу та тексту

Зараз штучний інтелект дозволяє створювати діпфейки облич та голосу. Голос дозволяє маніпулювати і вимагати гроші, а діпфейки фото — шахраювати як на документах, так і на громадській думці та поширенні фейкових новин.

Іноді хакери використовують штучний інтелект для підвищення ефективності шкідливих програм. Комбінація алгоритмів штучного інтелекту з malware дозволяє останньому ефективніше обходити спам-фільтри та інший захист. Зараз хакери розробляють шкідливі програми на основі штучного інтелекту, які заважатимуть роботі антивірусів та технології розпізнавання осіб.

Штучний інтелект становить загрозу і для безпеки паролів. Алгоритми дають можливість ефективніше їх зламати, а капча вже не настільки невразлива від «роботів». Штучний інтелект також застосовують для покращення якості шифрування. В аналогічній минулорічній доповіді згадувалося 34 додатка для шифрування або злому.

Ще один варіант створення фейків — генератор тексту GPT-3. Він аналізує приклад тексту конкретної людини та імітує його. Такі підробки можна використовувати для написання текстових «діпфейків» — листів із здирництвом або дезінформацією.

Гра в імітацію

З доповіді здається, що відсутня така технологічна сфера, куди б не зміг проникнути штучний інтелект. Алгоритми здатні проаналізувати великі масиви даних та виокремити з них номери карт і телефонів. Цю інформацію штучний інтелект зможе витягти навіть із зображень.

Здатність імітувати поведінку людини допоможе роботам втиратися в довіру до довірливих людей (це можна віднести до соціальної інженерії) та «розводити» їх. Нинішніх ботів у соцмережах видно неозброєним оком, боти майбутнього будуть мало відрізнятися від живого активного користувача соцмереж. Штучний інтелект навіть використовуватимуть в іграх для «читів» з метою виграшу.

Для телефонного шахрайства можна не наймати колл-центри — їхню роботу виконуватимуть голосові боти для автообдзвонів. Ще один варіант використання штучного інтелекту — обман систем розпізнавання зображень майбутньої техніки. Щоб викрасти безпілотні автомобілі або дрони, хакери зламуватимуть віртуальну розмітку їхнього руху.

І головне — фінансові злочини. Шахраї зможуть використовувати штучний інтелект для незаконної торгівлі криптовалютою, зломів систем алгоритмічного трейдингу та для маскування інсайдерської торгівлі. Тобто для атак на високотехнологічні фінансові операції.

Автори доповіді підкреслили, що вивчені ними способи застосування штучного інтелекту для шахрайства поки знаходяться в розробці, і використання їх — справа найближчого майбутнього.

Опубліковано
В категорії PR