Мнение экспертов. Сможет ли ИИ стать психологом для детей и этично ли это?

Искусственный интеллект все чаще предлагают как решение проблем в сфере психического здоровья? — особенно, когда не хватает специалистов. Но можно ли доверить эмоциональное благополучие детей чат-ботам на основе ИИ?




Доступ к психотерапии в США — ограниченный. Эксперты отмечают, что нехватка специалистов, высокая стоимость, длительные ожидания. И на этом фоне все активнее развиваются ИИ-приложения и чат-боты, которые имитируют работу психологов.

ИИ-терапия обещает доступность и поддержку. Правда, когда дело касается детей, подобные решения вызывают серьезные этические опасения.



Брайанна Мур

Станет ли ИИ психологом для детей в будущем

В 2025 году рынок наполнен ИИ-приложениями для отслеживания настроения и общения с виртуальными специалистами в психологии: большинство из них — ориентировано на взрослых и не регулируется на уровне законодательства.

Однако идея использовать ИИ для поддержки детей вызывает все больше обсуждений и споров в профессиональном сообществе.

Брайанна Мур, ассистентка профессора биоэтики Университета Рочестера, США, подчеркивает: детская психика отличается от взрослой.

Развитие ребенка происходит в тесной связи с семьей и окружением, а принятие решений требует иной логики.

Поэтому терапия не может быть изолированной от всей жизни и опыта человека, — как это часто бывает в случае использования чат-ботов на основе ИИ.

Почему ИИ — плохой психолог

К тому же дети склонны воспринимать машины как существ с моральной ценностью и сознанием. Это повышает риск формирования привязанности к чат-боту — в ущерб отношениям с живыми людьми.

Эксперты убеждены: ребенок, общающийся преимущественно с ИИ, может упустить ключевой навык — строить и поддерживать настоящие связи.



Джонатан Херрингтон /Adam Fenster

Также необходимо учитывать, что чат-боты не могут оценить контекст: они не видят взаимодействий в семье и не способны распознать угрозу, например насилие или пренебрежение. Это особенно критично для уязвимых групп — детей из малообеспеченных семей или тех, кто пережил травму. И именно такие пациенты чаще всего оказываются в ситуации, когда человеческая терапия недоступна и приходится полагаться на ИИ через интернет.

Как пояснил Джонатан Херингтон, соавтор нового исследования и специалист по философии и биоэтике из США, — данные, на которых обучаются ИИ-системы, часто не отражают реального многообразия жизни разных детей.

Без учета социального, гендерного и этнического контекста решения от ИИ могут усилить неравенство, а не снизить его.

Западные специалисты подчеркнули: к 2025 году лишь одно ИИ-приложение в США официально одобрено FDA для терапии депрессии у взрослых. Все остальные работают вне регулируемого поля.

Исследователи также указали: речь не о том, чтобы запретить новые ИИ-технологии, а о том, чтобы подойти к ним ответственно — особенно когда речь идет о детях.Команда ученых, включающая также профессора Серифе Текин из SUNY, надеется наладить диалог с американскими разработчиками и исследовать, как именно создаются чат-боты: учитываются ли этические аспекты, вовлекаются ли в процесс дети, родители и специалисты из разных сфер.
« Польза цианида
Сколько нужно заниматься в неделю спортом,... »
  • +2

Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.