Компанія OpenAI прокоментувала нещодавній позов видання The New York Times щодо використання текстів видання для навчання штучного інтелекту. Використання матеріалів з інтернету для навчання ШІ-моделей там назвали загальноприйнятим, а також припустили, що ЗМІ спеціально маніпулювало моделями для отримання необхідних доказів.
Як зазначається у релізі компанії, OpenAI підкреслили, що співпрацюють з низкою новинних організацій. Там прагнуть підтримувати здорову новинну екосистему, бути хорошим партнером та створювати взаємовигідні можливості.
Компанія працює над розробкою технологій для підтримки новинних ЗМІ, представники зустрічаються з провідними медіа, щоби вивчити можливості, обговорити проблеми та запропонувати рішення. Також у заяві йдеться про те, що OpenAI вдалося встановити партнерські відносини з новинними ЗМІ, зокрема з Assocated Press, Axel Springer, American Journalism Project.
В OpenAI підтвердили використання статей The New York Times для навчання ШІ, проте вважає це добросовісним використанням загальнодоступних матеріалів в інтернеті. За словами представників компанії, така практика підтримується численними науковцями, громадськими групами та стартапами, які подали коментарі до Управління з авторських прав США.
OpenAI нагадала, що власники вебсайтів можуть почати блокувати її вебсканерам доступ до їхніх даних. У серпні 2023 року видання The New York Times прийняло цю процедуру відмови, проте заявило про
Помилки у роботі ШІ там вважають рідкісними та працюють над виявленням і видаленням багів. Водночас компанія визнає їх існування.
“Ми також очікуємо, що наші користувачі будуть діяти відповідально; навмисне маніпулювання нашими моделями з метою викликати відрижку є неналежним використанням нашої технології і суперечить нашим умовам використання”, – заявили в OpenAI.
Також в OpenAI повідомили, що зустрічалися з журналістами видання 19 грудня, перед оприлюдненням інформації про позов з боку The New York Times. Там пояснювали представникам ЗМІ, що, як і будь-яке інше джерело, їхній контент не робить значного внеску в навчання існуючих моделей, а також не матиме достатнього впливу на майбутні тренінги. Сам позов став для OpenAI “несподіванкою і розчаруванням”.
The New York Times згадували, що помітили певні перекручування їхнього контенту, але неодноразово відмовлялися поділитися будь-якими прикладами. Компанія OpenAI зобов’язалася розслідувати та виправити будь-які подібні проблеми, особливо після прикладу у липні 2023 року, коли там відключили ChatGPT одразу після того, як дізналися, що вона може відтворювати контент у реальному часі непередбачуваним чином.
Там припускають, що причиною, чому представникам The New York Times вдалося отримати відповідь з текстом їх матеріалу, є копії статтей видання багаторічної давності, які поширювали багато інших вебсайтів. Також зазначається, що журналісти могли навмисно маніпулювали підказками для ШІ, змусити модель цитувати статті видання та вибрали необхідні приклади з багатьох спроб.