Джерела видання The New York Times, знайомі зі справами OpenAI, стверджують, що компанія-розробник ChatGPT зазнала хакерської атаки на початку 2023 року та приховала це. Хакер нібито отримав доступ до внутрішніх систем обміну повідомленнями ШІ-розробника та вкрав деталі його технологій.
Як зазначає видання, минулого року керівники OpenAI поінформували співробітників і правління компанії на загальних зборах про злам, проте, оскільки не було викрадено жодної інформації про клієнтів чи партнерів, було вирішено не ділитися деталями з громадськістю.
У звіті також йдеться про те, що керівництво OpenAI не вважало інцидент загрозою національній безпеці, оскільки вважало, що хакер був приватною особою, не пов’язаною з іноземним урядом. Тому компанія зі штаб-квартирою в Сан-Франциско не повідомила федеральні правоохоронні органи про злам.
Подія викликала побоювання серед деяких співробітників, що іноземні супротивники, такі як Китай, можуть вкрасти технологію штучного інтелекту, що в кінцевому підсумку може загрожувати національній безпеці США. Це також призвело до питань про те, наскільки серйозно OpenAI ставиться до безпеки, і виявило розбіжності всередині компанії щодо ризиків штучного інтелекту.
Після витоку інформації Леопольд Ашенбреннер, керівник технічної програми OpenAI, зосереджений на забезпеченні того, щоб майбутні технології штучного інтелекту не заподіяли серйозної шкоди, надіслав службову записку на адресу ради директорів компанії. Ашенбреннер стверджував, що компанія не робить достатньо, щоб запобігти крадіжці її секретів китайським урядом та іншими іноземними супротивниками. Він також сказав, що система безпеки OpenAI недостатньо сильна, щоб захистити від крадіжки ключових секретів, якщо іноземні суб’єкти проникнуть в компанію.
Пізніше Ашенбреннер стверджував, що OpenAI звільнила його цієї весни за витік іншої інформації за межі компанії, і стверджував, що його звільнення було політично мотивованим. Він згадав про витік в одному з нещодавніх подкастів, але подробиці інциденту раніше не повідомлялися.
Водночас досі триває юридичний конфлікт між The New York Times та OpenAI: видання стверджує, що використання її матеріалів у навчанні генеративних інструментів штучного інтелекту, таких як ChatGPT, завдає їм економічної шкоди. Microsoft і OpenAI, зі свого боку, подали клопотання про відхилення деяких пунктів позову, стверджуючи, що використання контенту The New York Times має трансформативний характер і може підпадати під принцип “чесного використання”.