OpenAI заявила, що майбутні покоління її моделей штучного інтелекту можуть становити високий ризик для кібербезпеки. Зі зростанням можливостей ШІ збільшується й потенціал для шкідливого використання, пише Reuters.
За оцінкою OpenAI, нові моделі зможуть створювати zero-day експлойти проти захищених систем або асистувати у складних атаках на корпоративну та промислову інфраструктуру. Компанія підкреслює, що така загроза потребує раннього реагування.
Щоб зменшити ризики, OpenAI інвестує у посилення моделей для захисних кіберзавдань та розробку інструментів, які спростять аудит коду і виявлення вразливостей.
Розробник ChatGPT планує запустити програму з поетапним доступом до розширених можливостей для користувачів і клієнтів, які працюють у сфері кіберзахисту. Мета — надати захисникам можливість тестувати інструменти, що можуть бути корисними у протидії складним атакам.
Нагадаємо – провідні розробники штучного інтелекту, Anthropic, OpenAI, xAI та Meta, не відповідають новим глобальним стандартам безпеки. Про це йдеться у дослідженні AI Safety Index від некомерційної організації Future of Life Institute, яка займається питаннями безпеки штучного інтелекту.

