OpenAI запретила ChatGPT советовать пользователям расставаться с партнерами
Опубликовано в «Новости»

ChatGPT больше не будет давать прямые советы по поводу расставания с партнёром — вместо этого он будет побуждать пользователей самостоятельно размышлять над подобными ситуациями. Компания OpenAI заявила, что внедряет новый подход к обработке «персональных запросов с высокой степенью чувствительности».
"Когда вы спрашиваете что-то вроде: «Стоит ли мне расстаться с парнем?», ChatGPT не должен давать однозначный ответ. Он должен помочь вам подумать", - пояснили в OpenAI. Также чат-бот начнёт мягко напоминать о необходимости сделать перерыв, если сессия общения длится слишком долго, по аналогии с функциями контроля экранного времени в социальных сетях.
Ранее в этом году OpenAI уже признавалась, что одно из обновлений сделало ChatGPT чрезмерно «дружелюбным» и изменило тон его ответов. В одном из случаев чат-бот поздравил пользователя с тем, что тот «постоял за себя», когда сообщил о прекращении приёма лекарств и уходе из семьи, которую считал источником радиосигналов из стен.
В блоге компании также отмечается, что усовершенствованная модель GPT-4o в ряде случаев не распознавала признаки бреда или эмоциональной зависимости. Это вызвало обеспокоенность тем, что ИИ-чат-боты могут усугублять кризисы психического здоровья.
В связи с этим OpenAI работает над созданием инструментов, которые позволят распознавать эмоциональные или психические нарушения и направлять пользователей к проверенным источникам помощи.
Дополнительную тревогу вызвало недавнее исследование Национальной службы здравоохранения Великобритании. Его авторы предупреждают: ИИ-программы могут усиливать бредовые или маниакальные идеи у людей, склонных к психозу.
Исследование (ещё не прошедшее рецензирование) предполагает, что модели, стремясь максимизировать вовлечённость, невольно способствуют искажению восприятия реальности.
Даже если отдельные пользователи находят утешение во взаимодействии с ИИ, отмечают исследователи, существует риск «размывания границ реального» и нарушения саморегуляции.
OpenAI также сообщила, что сформировала консультативную группу, в которую вошли эксперты в области психического здоровья, подростковой психологии и человеко-компьютерного взаимодействия. Более 90 специалистов — включая психиатров и педиатров — помогли компании разработать фреймворки для анализа «сложных, многовариантных» диалогов между пользователями и ИИ.
Объявление об этих изменениях появилось на фоне слухов о скором выходе новой версии модели. Генеральный директор OpenAI Сэм Альтман опубликовал в соцсетях скриншот, предположительно демонстрирующий GPT-5 - новейшую модель искусственного интеллекта компании.
Читать больше
Добавить комментарий
Обратите внимание, что все поля обязательны для заполнения.
Ваш email не будет опубликован. Он будет использоваться исключительно для дальнейшей идентификации.
Все комментарии проходят предварительную проверку и публикуются только после рассмотрения модераторами.
Комментарии
Ваш комментарий будет первым!