Deepfakes – фальшиві зображення людей і подій, що використовують технології штучного інтелекту (AI) і машинне навчання (ML) – стали поширеним інструментом дезінформації протягом останніх п’яти років. Проте, за словами Еріка Горвіца, наукового директора Microsoft, загрози від діпфейків тільки зростають, пише VentureBeat.
У новій дослідницькій статті Горвіца зазначається, що діпфейки можуть використовуватись державними та недержавними суб’єктами для створення та поширення переконливої дезінформації.
Експерт підкреслив, що дотепер ШІ-підробки створювалися та поширювалися як разові витвори. “Однак тепер ми можемо очікувати на появу нових форм переконливих діпфейків, які виходять за рамки фіксованих одноелементних виробництв”, — сказав він.
Проблема, як він пояснив, виникає через методологію генеративних змагальних мереж (GAN), “ітераційну техніку, де машинне навчання, що використовується для створення синтетичного контенту, протиставляється системам, які намагаються відрізнити створені фейки від фактів”. З часом, упевнений Горвіц, генератор навчиться обманювати детектор. “Завдяки цьому процесу в основі deepfakes ні методи розпізнавання образів, ні люди не зможуть надійно розпізнати діпфейки”, — написав він.
Ще в травні Горвіц дав свідчення підкомітету з питань кібербезпеки Комітету збройних сил Сенату США, де він наголосив, що організації, безперечно, зіткнуться з новими викликами, оскільки атаки на кібербезпеку стають все більш витонченими, зокрема через використання синтетичних носіїв на основі ШІ та діпфейків.