Американская психологическая ассоциация призывает к мерам безопасности и обучению для защиты несовершеннолетних пользователей ИИ
Опубликовано в «Новости»

АПА опубликовала отчёт, в котором анализируется влияние искусственного интеллекта на подростков. Эксперты отмечают: интеграция ИИ в повседневную жизнь открывает новые возможности, но одновременно требует особого внимания к вопросам безопасности и защиты психического здоровья несовершеннолетних.
Документ под названием «Искусственный интеллект и благополучие подростков: рекомендации Американской психологической ассоциации» содержит обращение к разработчикам технологий, педагогам, родителям и политикам: необходимо создавать инструменты ИИ, которые минимизируют риски эксплуатации, манипуляций и разрушения реальных социальных связей.
«ИИ сам по себе не является ни хорошим, ни плохим, — подчёркивает Митч Принштейн, PhD, руководитель отдела психологии АПА и глава экспертной группы, подготовившей отчёт. — Однако мы уже видели случаи, когда подростки выстраивали нездоровые, а порой и опасные "отношения" с чат-ботами. Некоторые даже не подозревают, что общаются с искусственным интеллектом, поэтому крайне важно внедрять защитные барьеры ещё на ранних этапах разработки».
Подростковый возраст: зона повышенного риска
В отчёте отмечается, что подростковый возраст — это не только период социальных изменений, но и критический этап нейропсихологического развития. Он охватывает широкий диапазон, от 10 до 25 лет, и не всегда совпадает с уровнем зрелости и психологической компетентности. В этих условиях технологии, имитирующие человеческое взаимодействие, требуют особенно осторожного подхода.
Авторы доклада подчеркивают: как и в случае с социальными сетями, ошибка на раннем этапе может иметь долгосрочные последствия. «Мы не можем позволить себе повторить те же просчёты, которые допустили с соцсетями», — говорится в отчёте.
Основные рекомендации АПА:
- Здоровые границы. Разработчики должны предусматривать механизмы, которые предотвращают формирование чрезмерно личных или зависимых отношений между подростками и чат-ботами.
- Возрастные настройки конфиденциальности. Необходимы адаптированные к возрасту ограничения контента, прозрачность алгоритмов и обязательный человеческий контроль.
- Развитие через ИИ. Подростков следует поощрять использовать ИИ для учёбы, творчества, анализа и синтеза информации, но при этом важно объяснять ограничения технологий.
- Защита от вредоносного контента. Встроенные фильтры должны минимизировать риск взаимодействия с опасной, неточной или манипулятивной информацией.
- Конфиденциальность данных. Ограничение сбора и использования информации о несовершеннолетних, запрет на таргетированную рекламу и продажу данных третьим лицам.
- Образование. Внедрение программ по грамотности в области ИИ в школьные и государственные учебные планы.
Важность системного подхода
Авторы подчёркивают, что часть этих мер могут реализовать сами родители и педагоги, обеспечивая детям эмоциональную поддержку и объясняя принципы работы ИИ. Но для полноценной защиты необходимы комплексные изменения на уровне индустрии и политики.
«Мы живём в мире, где технологии развиваются быстрее, чем культура их осмысления, — говорит Принштейн. — Этот отчёт — призыв выстроить систему защиты детей и подростков, прежде чем искусственный интеллект станет ещё более неотъемлемой частью их жизни».
Читать больше
Добавить комментарий
Обратите внимание, что все поля обязательны для заполнения.
Ваш email не будет опубликован. Он будет использоваться исключительно для дальнейшей идентификации.
Все комментарии проходят предварительную проверку и публикуются только после рассмотрения модераторами.
Комментарии
Ваш комментарий будет первым!