OpenAI підтвердила, що ChatGPT може передавати дані користувачів поліції

30 серпня, 16:23

Компанія OpenAI підтвердила, що діалоги користувачів із ChatGPT перевіряються на наявність небезпечного контенту і за певних умов можуть передаватися правоохоронним органам.

Про це йдеться у блозі Open AI, передає Радіо МАКСИМУМ.

До слова: Apple судиться з Oppo через буцімто викрадені технології

У компанії зазначили, що спершу повідомлення фільтрують автоматичні системи, а згодом їх оцінює команда модераторів. У випадку виявлення "безпосередньої загрози серйозної фізичної шкоди" обліковий запис можуть заблокувати, а інформацію – передати поліції, йдеться у блозі компанії.

Водночас OpenAI наголосила, що випадки самоушкодження не повідомляють владі з міркувань приватності. У таких ситуаціях чат-бот має перенаправляти користувачів до фахівців і гарячих ліній допомоги.

Рішення ухвалили на тлі критики, яка посилилася після випадків самогубств і травм за порадами ChatGPT. Експерти називають подібні явища "ШІ-психозами" – станами, коли штучний інтелект підміняє людині реальність.

Оновлення викликало суперечки: критики закидають OpenAI відсутність прозорості й невідповідність між обіцянками про захист конфіденційності та суворою модерацією. Користувачі не знають, які саме слова чи теми можуть стати причиною блокування або втручання поліції.

Пропозиції партнерів