Ніколи не забувайте: все, чим ви ділитеся з ChatGPT, використовується для подальшого навчання моделі. Працівники Samsung засвоїли це на власному гіркому досвіді, випадково “зливши” чат-боту торгові секрети компанії, пише видання Mashable.
ChatGPT спочатку допомагав у роботі підрозділу напівпровідників з дозволу керівництва – перевіряв код. А згодом стало відомо про принаймні три випадки, коли чутлива інформація потрапляла до чат-бота.
У першому випадку один із інженерів “запостив” у чат секретний вихідний код, щоб перевірити на помилки. В іншому – його колега попросив ChatGPT оптимізувати код. А третій взагалі передав штучному інтелекту запис зустрічі і попросив створити записи для презентації. Зрозуміло, що тепер ця інформація стала частиною навчання ШІ і потенційно доступною всім іншим користувачам.
Такі зливи – сценарії, які непокоять експертів з приватності, наголошує Mashable. Інші включають у себе поширення конфіденційних юридичиних документів або медичної інформації, щоб її проаналізувати або підсумувати довгий текст.
Все це може стати порушенням GDPR (загальний регламент про захист даних), за що Італія нещодавно заборонила доступ до ChatGPT.