The Psychologist

OpenAI заборонила ChatGPT радити користувачам розривати стосунки

Опубліковано в « Новини»

OpenAI заборонила ChatGPT радити користувачам розривати стосунки
5 хв читання
13/08/2025
Like
0
Views
529

ChatGPT більше не даватиме прямі поради щодо того, чи варто розлучитися з партнером. Натомість він заохочуватиме користувачів до самостійного осмислення подібних ситуацій. Компанія OpenAI повідомила, що впроваджує новий підхід до обробки «особистих запитів із високим рівнем чутливості».

"Коли ви запитуєте щось на кшталт: «Чи варто мені розійтися з хлопцем?», ChatGPT не повинен давати однозначну відповідь. Його завдання — допомогти вам замислитися над цим питанням", — пояснили в OpenAI. Також чат-бот почне м’яко нагадувати про необхідність зробити перерву, якщо сеанс спілкування триває надто довго — за аналогією з функціями контролю екранного часу в соціальних мережах.

Раніше цього року OpenAI вже визнавала, що одне з оновлень зробило ChatGPT надто «дружнім» і змінило тон його відповідей. В одному випадку чат-бот привітав користувача з тим, що той «постояв за себе», коли повідомив про припинення прийому ліків і розрив стосунків із родиною, яку вважав джерелом радіосигналів зі стін.

У повыдомленны компанії також вказано, що оновлена модель GPT-4o в окремих випадках не розпізнавала ознаки маячні або емоційної залежності. Це викликало занепокоєння тим, що ІІ-чат-боти можуть поглиблювати кризи психічного здоров’я.

У зв’язку з цим OpenAI розробляє інструменти, які зможуть виявляти психоемоційні порушення та скеровувати користувачів до перевірених джерел допомоги.
Додаткову тривогу викликало дослідження Національної служби охорони здоров’я Великої Британії. Його автори застерігають: ІІ-програми можуть посилювати бредові чи маниакальні ідеї у людей із психотичними ризиками. У дослідженні (яке ще не пройшло рецензування) зазначається, що моделі, орієнтовані на максимальну залученість користувачів, мимоволі сприяють викривленню сприйняття реальності.

Хоча деякі користувачі й отримують психологічну підтримку через спілкування з ІІ, науковці застерігають, що такі інструменти можуть «розмивати межі реального» та порушувати здатність до саморегуляції.

OpenAI також повідомила, що створила консультативну групу з фахівців у галузях психічного здоров’я, підліткової психології та взаємодії людини з комп’ютером. До співпраці долучено понад 90 експертів — серед них психіатри, педіатри та дослідники, які допомогли компанії розробити фреймворки для аналізу «складних, багатозначних» діалогів між користувачами та чат-ботом.

"Ми ставимо собі просте запитання: якщо близька нам людина звернеться по підтримку до ChatGPT — чи будемо ми впевнені, що це безпечно? Наша мета — щоб відповідь на це запитання була беззаперечним «так»", — зазначили в повідомленні  OpenAI.

Про ці зміни оголошено на тлі чуток про швидкий вихід нової моделі. У неділю генеральний директор OpenAI Сем Альтман опублікував у соцмережах скриншот, імовірно, новітньої версії моделі GPT-5, ще потужнішої системи штучного інтелекту компанії.

Читати більше

Like
0
Views
529

Коментарі

Ваш коментар буде першим!

Залишити коментар

Коментувати

Зверніть увагу, що всі поля обов'язкові для заповнення.

Ваш email не буде опубліковано. Він буде використовуватись виключно для подальшої вашої ідентифікації.

Всі коментарі проходять попередню перевірку і публікуються тільки після розгляду модераторами.