2024 рік продемонстрував, що шахраї дуже активно опановують сучасні технології, зокрема йдеться про штучний інтелект. Дипфейки, голосові клони, фішингові схеми, згенеровані ШІ – все це було лише тестовим застосуванням ШІ злочинцями цьогоріч. 2025-й стане роком, коли шахрайство з використанням штучного інтелекту стане домінуючою силою у виснаженні фінтеху та банківської галузі, кажуть експерти.
За даними Центру фінансових послуг Deloitte, генеративний штучний інтелект призведе до збитків у розмірі $40 млрд до 2027 року порівняно з $12,3 млрд у 2023 році. Темп зростання, як бачимо, становить 32% на рік. ФБР цього місяця попередило, що шахраї активніше використовуватимуть ШІ в 2025 році для реалізації нових злочинних схем.
1. Атаки компрометації електронної пошти покладатимуться на дипфейки
Атаки компрометації ділової електронної пошти з використанням дипфейків можуть стати основною загрозою в 2025 році. Цьогоріч у двох не пов’язаних між собою схемах у Гонконзі шахраї використовували створені штучним інтелектом відео та аудіо, щоб видати себе за керівників компаній під час дзвінків Zoom, переконавши працівників переказати майже $30 млн на фейкові рахунки.
І це не поодинокі випадки. ШІ використовується в атаках компрометації електронної пошти повсюдно. У звіті американської компанії Medius було виявлено, що близько 53% спеціалістів з бухгалтерського обліку за останній рік були об’єктами атак з використанням ШІ та дипфейків.
Ще одна компанія VIPRE Security Group повідомляє, що 40% шахрайських електронних листів нині створені штучним інтелектом.
2. Чат-боти, націлені на романтичне шахрайство
Нещодавно відомий нігерійський кіберзлочинець опублікував відео на своєму YouTube-каналі, в якому показав, як повністю автоматизований чат-бот на базі ШІ вільно спілкується з жертвою. Жінка вірить, що отримує повідомлення від коханого, який живе за кордоном. А насправді спілкується з чат-ботом, яким керує шахрай.
Штучний інтелект дозволяє чат-ботам вільно спілкуватися з жертвою, надаючи шахрайству правдоподібність. Експерти попереджають, що використання повністю автономних чат-ботів зі штучним інтелектом пошириться у 2025 році.
3. Схеми “забій свиней” також покладатимуться на ШІ
Шахрайські схеми під назвою “pig butchering” (“забій свиней”) націлені на заманювання жертв в начебто перспективні інвестиційні проєкти обіцянками великої дохідності. Для цього шахраї використовують соцмережі, зокрема Telegram та Instagram.
Цим типом шахрайства нині займаються цілі злочинні синдикати. Експерти попереджають, що вони все частіше використовуватимуть технологію deepfake на базі штучного інтелекту для відеодзвінків, голосових клонів і чат-ботів, щоб значно розширити свою діяльність у 2025 році.
4. Шахрайство з вимаганням на базі ШІ, націлене на керівників
Нещодавно у Сингапурі шахраї організували схему з вимаганням через електронну пошту з використанням дипфейків. Жертвами стали 100 державних службовців із 30 державних установ, у тому числі представники кабінету міністрів.
Електронний лист вимагав заплатити $50 000 у криптовалюті, в іншому випадку шахраї обіцяли оприлюднити начебто компрометуюче відео. Ролики були створені за допомогою ШІ, з використанням публічних фотографій з LinkedIn та YouTube, та виглядали дуже правдоподібно.
Оскільки програмне забезпечення з ШІ стає все доступнішим, ці шахрайства з використанням дипфейків поширюватимуться по всьому світу та націлюватимуться на керівників найвищих ланок.
5. Шантаж за участі “правоохоронців”
Ще однією хвилею шахрайства, яка вже набирає обертів в азійських країнах та загрожує Заходу, є психологічні маніпуляції. Злочинці видають себе за представників правоохоронних органів та вимагають від жертви передати всі свої заощадження, погрожуючи відповідальністю у сфабрикованих кримінальних справах. Шахраї використовують відео- та аудіозаписи урядових чиновників, створюючи дипфейки, щоб зробити аферу більш правдоподібною.
Як захистити себе від шахрайства зі штучним інтелектом?
Незважаючи на те, що дипфейки на базі ШІ допомагають шахраям підвищити правдоподібність їхніх схем, все ж існують практичні заходи, яких може вжити кожна людина, щоб уберегтися від злочинців.
Перш за все, треба остерігатися несподіваних текстових повідомлень, електронних листів і дзвінків, які вимагають термінових рішень або створюють тиск, особливо тих, які надходять начебто від офіційних організацій. Якщо з вашого банку надходить дзвінок із запитом конфіденційної інформації, просто завершіть його та зателефонуйте в банк за номером служби підтримки клієнтів.
Якщо хтось із родичів терміново дзвонить і каже, що його викрали, задайте особисті питання, відповіді на які знає лише ця людина. Фахівці також рекомендують встановити “безпечні слова” з рідними. Під час термінового дзвінка це безпечне слово можна використати для перевірки особистості співрозмовника.
Якщо ж ви отримали дивний відеодзвінок у Zoom або FaceTime, який, на вашу думку, може бути дипфейком, попросіть людину встати або помахати рукою перед обличчям. Якщо відео при цьому має збої, це вірна ознака того, що щось не так.