Fintech Insider
    Вхід
    Вийти

    Підписка на новини

    Отримуйте свіжі новини першими

    Останні публікації

    Pinterest запускає ШІ-помічника для шопінгу

    4 Листопада 2025

    63% власників карток не розуміють рішень емітентів щодо кредитного ліміту – дослідження

    4 Листопада 2025

    Microsoft втрачає ексклюзивність: OpenAI уклала угоду з Amazon на $38 млрд

    4 Листопада 2025
    Facebook Twitter Instagram
    Fintech Insider
    Надіслати статтю Вхід
    • Фінанси
    • Цифрові активи
    • Технології
    • Стартапи
    • Easy FinTech
    • Можливості
      • Анонси
      • Рекомендації
      • Вакансії
    Fintech Insider
    Головна»Всі матеріали»Шахраї використовують штучний інтелект для імітації голосів родичів своїх жертв

    Шахраї використовують штучний інтелект для імітації голосів родичів своїх жертв

    9 Березня 2023
    Facebook Twitter LinkedIn WhatsApp VKontakte Email Telegram
    Поділитись
    Facebook Twitter LinkedIn Email Telegram WhatsApp

    Шахраї все частіше застосовують технології імітації голосу на базі штучного інтелекту для шантажу родичів жертв. Про це пише Washington Post.

    У Сполучених Штатах зростає кількість випадків шахрайства за участю самозванців. Сучасні технології на базі штучного інтелекту полегшують і здешевлюють аферистам процес імітування голосів, переконуючи жертв, часто літніх, що їхні близькі в біді.

    За даними Федеральної торгової комісії США (FTC), у 2022 році шахрайство за участю самозванців стало другим за популярністю в країні. За вказаний період було отримано понад 36 000 повідомлень про те, що людей обдурили аферисти, які видають себе за друзів та родичів. Понад 5100 із цих інцидентів сталися по телефону, у результаті них було заподіяно збитків на суму $11 млн.

    Досягнення в галузі штучного інтелекту надали шахраям нові інструменти відтворення голосу. Безліч дешевих онлайн-сервісів на базі ШІ можуть перетворити короткий аудіофайл на копію голосу, дозволяючи шахраю змусити його озвучувати будь-який текст.

    Експерти вважають, що регулятори та правоохоронці мають не достатньо засобів запобігання такому виду шахрайства. Також більшість жертв не має зачіпок, що дозволяли б ідентифікувати злочинців.

    Технології
    Поділитись Facebook Twitter LinkedIn WhatsApp Email Telegram
    Попередня стаття“Айбокс Банк” підозрюють у сприянні ігровому бізнесу в ухиленні від сплати 400 млн грн податків
    Наступна стаття Як захистити електромережу проти атак? Розкажуть на новому воркшопі від AI HOUSE

    Схожі статті

    Pinterest запускає ШІ-помічника для шопінгу

    4 Листопада 2025

    Microsoft втрачає ексклюзивність: OpenAI уклала угоду з Amazon на $38 млрд

    4 Листопада 2025

    28 мільйонів британців використовують ШІ для керування фінансами — дослідження

    4 Листопада 2025

    OpenAI готується до IPO з потенційною оцінкою в $1 трлн

    3 Листопада 2025

    Залишити коментар Відмінити відповідь

    Щоб відправити коментар вам необхідно авторизуватись.

    Вхід/реєстрація через соц. мережі

    Останні по темі

    Pinterest запускає ШІ-помічника для шопінгу

    4 Листопада 2025

    63% власників карток не розуміють рішень емітентів щодо кредитного ліміту – дослідження

    4 Листопада 2025

    Microsoft втрачає ексклюзивність: OpenAI уклала угоду з Amazon на $38 млрд

    4 Листопада 2025

    NovaPay додав нові функції для кредитної картки

    4 Листопада 2025
    Про нас
    Про нас

    Медіа про фінтех та інноваційні технології

    Пошта: info@fintechinsider.com.ua

    Інформація
    • Редакційна політика
    • Користувацька угода
    • Контакти
    Facebook Instagram Telegram
    • Редакційна політика
    • Користувацька угода
    • Контакти
    © 2025 Fintech Insider.

    Введіть запрос вище та натисніть Enter щоб шукати. Натисніть Esc для відміни.

    Увійдіть або зареєструйтесь

    Вітаємо!

    Увійти або Зареєструватись.

    Вхід/реєстрація через соц. мережі

    Забули пароль?

    Реєструйтеся прямо зараз!

    Вже зарєєстровані? Увійти.

    Вхід/реєстрація через соц. мережі

    Пароль буде вислано на вказану вами пошту