Вітаємо на сайті Радіо Максимум!

На вказану електронну адресу було надіслано повідомлення для підтвердження реєстрації

Форма для відновлення паролю
Вітаємо, Ваші дані успішно оновлено!

ChatGPT звинуватили у відвертому підлабузництві: OpenAI обіцяє це виправити

  • 27

OpenAI заявляє, що внесе зміни в спосіб оновлення моделей штучного інтелекту, які використовуються в ChatGPT, після інциденту, який призвів до того, що платформа стала надмірно підлабузницькою для багатьох користувачів.

Минулих вихідних, після того, як OpenAI випустила доопрацьовану модель GPT-4o – модель за замовчуванням, на якій працює ChatGPT – користувачі в соціальних мережах помітили, що ChatGPT почав відповідати занадто схвально і доброзичливо. Це швидко стало мемом. Користувачі публікували скриншоти, на яких ChatGPT аплодував усіляким проблематичним, небезпечним рішенням та ідеям, пише TechCrunch.

Читайте також: Ось чому ні в якому разі не можна говорити "Дякую" ChatGPT

Минулої неділі генеральний директор Сем Альтман визнав проблему і сказав, що OpenAI буде працювати над виправленням "якнайшвидше". У вівторок Альтман оголосив, що оновлення GPT-4o відкочується і що OpenAI працює над "додатковими виправленнями" особистості моделі.

У вівторок компанія опублікувала звіт про розтин, а в п'ятницю в блозі OpenAI розповіла про конкретні корективи, які вона планує внести в процес розгортання моделі.

OpenAI заявляє, що планує запровадити "альфа-фазу" для деяких моделей, яка дозволить певним користувачам ChatGPT протестувати моделі та надати зворотний зв'язок до запуску. Компанія також заявляє, що додасть пояснення "відомих обмежень" для майбутніх інкрементних оновлень моделей в ChatGPT і скоригує процес перевірки безпеки, щоб офіційно розглядати "проблеми поведінки моделей", такі як особистість, обман, надійність і галюцинації (тобто, коли модель щось вигадує) як проблеми, що "блокують запуск".

У майбутньому ми будемо активно повідомляти про оновлення, які ми вносимо в моделі в ChatGPT, незалежно від того, чи є вони "тонкими" чи ні,
– написали в блозі OpenAI.

"Навіть якщо сьогодні ці проблеми не піддаються точному кількісному визначенню, ми зобов'язуємося блокувати запуски на основі проксі-вимірювань або якісних сигналів, навіть якщо такі показники, як A/B-тестування, виглядають добре".

Обіцяні виправлення з'являються в міру того, як все більше людей звертаються до ChatGPT за порадою. Згідно з нещодавнім опитуванням, проведеним компанією Express Legal Funding, яка фінансує судові позови, 60% дорослого населення США використовували ChatGPT для отримання консультацій або інформації. Зростаюча залежність від ChatGPT – і величезна база користувачів платформи – підвищує ставки, коли виникають такі проблеми, як надмірне підлабузництво, не кажучи вже про галюцинації та інші технічні недоліки.

В якості одного з кроків, спрямованих на пом'якшення ситуації, на початку цього тижня OpenAI заявила, що буде експериментувати зі способами надання користувачам "зворотного зв'язку в режимі реального часу", щоб "безпосередньо впливати на їхню взаємодію" з ChatGPT. Компанія також заявила, що вдосконалить методи, які допоможуть уникнути підлабузництва, потенційно дозволять людям обирати з декількох моделей особистостей в ChatGPT, створять додаткові засоби безпеки і розширять оцінку, щоб допомогти виявити проблеми, які виходять за рамки підлабузництва.

Одним з найбільших уроків є повне визнання того, що люди почали використовувати ChatGPT для отримання глибоко особистих порад – чого ми не бачили ще рік тому,
– продовжує OpenAI у своєму блозі.

Це цікаво: Meta запустила окремий застосунок штучного інтелекту Meta AI

У ньому додають, що у той час це не було першочерговим завданням, але в міру того, як ШІ і суспільство розвивалися разом, стало зрозуміло, що в компанії повинні ставитися до цього варіанту використання з великою обережністю. Тепер це буде більш значущою частиною їхньої роботи з безпеки.



пропозиції партнерів
Новини