Понад 1300 дослідників, інженерів та підприємців підписали відкритий лист до ШІ-лабораторій з проханням “терміново і як мінімум на пів року призупинити навчання ШІ-систем, продуктивніших, ніж GPT-4”. Якщо це неможливо, повинен втрутитися уряд — наприклад, запровадити мораторій на експерименти.
Продукти зі штучним інтелектом “можуть становити серйозну загрозу суспільству та людству”, пишуть автори листа. При роботі з ними розробники повинні бути вкрай уважними, але “цього не відбувається”, оскільки останні кілька місяців вони намагаються обігнати один одного і випустити “потужніші моделі, дії яких самі не можуть до кінця зрозуміти, передбачити та проконтролювати”.
У листі автори зазначають, що розробкою продуктів, які можуть замінити людей або породити більше фейкових новин, повинні займатися “технологічні лідери”. Самі системи при цьому варто створювати тоді, коли всі впевнені, що принесуть користь, а ризиками можна буде керувати. Поки що сили слід спрямувати на доопрацювання вже існуючих продуктів — щоб зробити їх точнішими, безпечнішими та прозорішими.
Це не означає, що потрібно повністю зупинити розвиток технології, пишуть автори. Треба лише “вийти з небезпечних перегонів”. Вони пропонують протягом півроку поєднати зусилля та розробити єдині для ринку правила безпеки, а також способи контролю експериментів. За їхніми словами, потрібно також підключити уряди, щоб ті сформували відомства, які сертифікуватимуть продукти, зможуть відрізняти реальний контент від “синтетичного” та стежити за витоками ШІ-моделей.
Серед тих, хто підписався – директор SpaceX, Tesla і Twitter Ілон Маск, співзасновники Apple, Skype, Pinterest, Ripple Стів Возняк, Яан Таллінн, Еван Шарп і Кріс Ларсен. Є й глави фірм-розробників ШІ-продуктів – із Stability AI (Stable Diffusion), Scale AI, ThirdAI, Character.ai, Unanimous AI та інших.
Лист також підтримали інженери та дослідники Google і Microsoft та вчені й професори з численних університетів – Єльського, Оксфордського, Гарвардського, Кембриджського, Стенфордського, Массачусетського технологічного та інших.