Fintech Insider
    Вхід
    Вийти

    Підписка на новини

    Отримуйте свіжі новини першими

    Останні публікації

    У США представили законопроєкт про регулювання криптовалют

    14 Січня 2026

    IFC і ЄБРР інвестують €80 млн у проєкти відновлення України через Horizon Capital

    13 Січня 2026

    Американсько-український квантовий стартап Haiqu залучив $11 млн інвестицій

    13 Січня 2026
    Facebook Twitter Instagram
    Fintech Insider
    Надіслати статтю Вхід
    • Фінанси
    • Цифрові активи
    • Технології
    • Стартапи
    • Easy FinTech
    • Можливості
      • Анонси
      • Рекомендації
      • Вакансії
    Fintech Insider
    Головна»Всі матеріали»Шахраї використовують штучний інтелект для імітації голосів родичів своїх жертв

    Шахраї використовують штучний інтелект для імітації голосів родичів своїх жертв

    9 Березня 2023
    Facebook Twitter LinkedIn WhatsApp VKontakte Email Telegram
    Поділитись
    Facebook Twitter LinkedIn Email Telegram WhatsApp

    Шахраї все частіше застосовують технології імітації голосу на базі штучного інтелекту для шантажу родичів жертв. Про це пише Washington Post.

    У Сполучених Штатах зростає кількість випадків шахрайства за участю самозванців. Сучасні технології на базі штучного інтелекту полегшують і здешевлюють аферистам процес імітування голосів, переконуючи жертв, часто літніх, що їхні близькі в біді.

    За даними Федеральної торгової комісії США (FTC), у 2022 році шахрайство за участю самозванців стало другим за популярністю в країні. За вказаний період було отримано понад 36 000 повідомлень про те, що людей обдурили аферисти, які видають себе за друзів та родичів. Понад 5100 із цих інцидентів сталися по телефону, у результаті них було заподіяно збитків на суму $11 млн.

    Досягнення в галузі штучного інтелекту надали шахраям нові інструменти відтворення голосу. Безліч дешевих онлайн-сервісів на базі ШІ можуть перетворити короткий аудіофайл на копію голосу, дозволяючи шахраю змусити його озвучувати будь-який текст.

    Експерти вважають, що регулятори та правоохоронці мають не достатньо засобів запобігання такому виду шахрайства. Також більшість жертв не має зачіпок, що дозволяли б ідентифікувати злочинців.

    Технології
    Поділитись Facebook Twitter LinkedIn WhatsApp Email Telegram
    Попередня стаття“Айбокс Банк” підозрюють у сприянні ігровому бізнесу в ухиленні від сплати 400 млн грн податків
    Наступна стаття Як захистити електромережу проти атак? Розкажуть на новому воркшопі від AI HOUSE

    Схожі статті

    Meta планує скоротити 10% працівників у підрозділі віртуальної реальності

    13 Січня 2026

    Нігерія може ухвалити масштабний закон про регулювання штучного інтелекту

    13 Січня 2026

    Apple обрала Gemini від Google для ШІ-версії Siri

    13 Січня 2026

    DeepSeek представить нову ШІ-модель у лютому

    12 Січня 2026

    Залишити коментар Відмінити відповідь

    Щоб відправити коментар вам необхідно авторизуватись.

    Вхід/реєстрація через соц. мережі

    Останні по темі

    У США представили законопроєкт про регулювання криптовалют

    14 Січня 2026

    IFC і ЄБРР інвестують €80 млн у проєкти відновлення України через Horizon Capital

    13 Січня 2026

    Американсько-український квантовий стартап Haiqu залучив $11 млн інвестицій

    13 Січня 2026

    Meta планує скоротити 10% працівників у підрозділі віртуальної реальності

    13 Січня 2026
    Про нас
    Про нас

    Медіа про фінтех та інноваційні технології

    Пошта: info@fintechinsider.com.ua

    Інформація
    • Редакційна політика
    • Користувацька угода
    • Контакти
    Facebook Instagram Telegram
    • Редакційна політика
    • Користувацька угода
    • Контакти
    © 2026 Fintech Insider.

    Введіть запрос вище та натисніть Enter щоб шукати. Натисніть Esc для відміни.

    Увійдіть або зареєструйтесь

    Вітаємо!

    Увійти або Зареєструватись.

    Вхід/реєстрація через соц. мережі

    Забули пароль?

    Реєструйтеся прямо зараз!

    Вже зарєєстровані? Увійти.

    Вхід/реєстрація через соц. мережі

    Пароль буде вислано на вказану вами пошту