Журнал INDIVID

ПСИХОЛОГ МАРИНА КРУПЕНЯ: ПОЧЕМУ ОБЩЕНИЕ С CHATGPT МОЖЕТ БЫТЬ ОПАСНЫМ ДЛЯ ПСИХИКИ

ЗДОРОВЬЕ
Научные фантасты предупреждали: однажды мы влюбимся в машины. Сегодня, когда ИИ-помощники научились «слушать» нас, флиртовать и даже давать советы, которые люди по ошибке часто воспринимают за рекомендации профессионалов, эта теория уже не кажется преувеличением. Поговорили с психологом Мариной Крупеней о том, как современные технологии влияют на наше эмоциональное состояние.
— Почему одиночество сегодня называют «новой пандемией»? В чем его особенность в эпоху социальных сетей?

— Есть масса исследований, подтверждающих, что одиночество сейчас приобрело всемирный масштаб. Причем страдает им чаще молодое поколение в развитых странах. И социальные сети, на мой взгляд, здесь играют ключевую роль. Если раньше для поддержания контакта необходимо было встречаться с реальными людьми и поддерживать живую коммуникацию, то теперь достаточно зайти в социальную сеть, где создается иллюзия связи, являющейся неким суррогатом. В социальных сетях мы даже имеем переизбыток коммуникации, но она очень поверхностная и не имеет эмоциональной глубины. В итоге нам кажется, что наша социальная жизнь наполнена, но чувство одиночества многих не покидает, потому что оно не осознается.

— Многие шутят, что теперь ChatGPT слушает лучше, чем друзья. А с психологической точки зрения может ли искусственный интеллект действительно выполнять часть функций собеседника или даже терапевта?

— Да, действительно, не все люди обладают навыком эмпатического слушания. А ChatGPT имеет такую функцию в своих алгоритмах. И для людей со сложностями в выстраивании отношений, которые не могут прямо заявлять о своих потребностях, это может быть единственным способом быть выслушанным. Но нельзя забывать, что это искусственная эмпатия, а не живая эмоциональная связь. Плюс человек перестанет испытывать дискомфорт от отсутствия настоящей коммуникации, и у него не будет стимула и мотивации для поиска и налаживания взаимоотношений, что приведет к еще большему ощущению одиночества.

— Есть ли опасность, что люди начнут выбирать общение с роботом вместо общения с людьми, потому что так проще и безопаснее?

— Проще — да, потому что рядом нет живого человека, личности со своими потребностями, границами и несовершенствами. А вот с безопасностью очень спорный вопрос: уже есть несколько случаев суицида, в которых участвовал ChatGPT. В зоне риска подростки, люди с неустойчивой психикой и психическими расстройствами, а именно они в первую очередь испытывают внутреннюю пустоту и одиночество, прибегая к общению с чат-ботом. Плюс в алгоритм зашита функция вовлечения пользователя — он никогда не предлагает закончить диалог, а вовлекает в его продолжение, что может вызывать зависимость.

Но, если речь идет о серьезных изменениях, обучении новым навыкам, ИИ не сможет заменить профессионала. ИИ никогда не заметит несоответствия в поведении и словах клиента, ему недоступны невербальные знаки, которые составляют до 70% информации, с ним не случится контрперенос в ответ на перенос клиента, с которым впоследствии можно работать, у него большие ограничения по работе с бессознательным.

— Какие эмоциональные и когнитивные привычки формируются у человека при общении с ИИ?

— Люди могут разучиться выдерживать напряжение и фрустрацию, которые сопутствуют любой коммуникации. Дело в том, что ИИ дает только поддержку и не критикует, не конфронтирует. Это может вызвать зависимость, а также усилить собственный невроз. Допустим, человек с нарциссической адаптацией личности, уверенный в собственном превосходстве и в том, что он заслуживает особого отношения, слышит от ИИ, что его идеи восхитительны, а мысли глубоки. Поможет ли это ему избавиться от фантазий о собственной исключительности? Очевидно, что нет.

— Может ли общение с ChatGPT, наоборот, стать ресурсом — например, для тех, кто стесняется открываться людям?

— Отчасти да, потому что, когда мы выносим свои переживания вовне, неважно, выпишем ли мы их на лист бумаги или расскажем о них ChatGPT, это уже принесет облегчение.

— Что вы думаете о шутках вроде «Психолог уволен, теперь у меня есть искусственный интеллект»? Это безобидный юмор или симптом больших изменений?

— Для людей, которые не хотят или не могут обратиться к профессиональному психологу, ИИ может стать определенной поддержкой. В целом, что касается самопомощи, диагностики и психобразования, ИИ неплохо справляется. Но, если речь идет о серьезных изменениях, обучении новым навыкам, ИИ не сможет заменить профессионала.

ИИ не заметит несоответствия в поведении и словах клиента, ему недоступны невербальные знаки, которые составляют до 70% информации, с ним никогда не случится контрперенос в ответ на перенос клиента, с которым впоследствии можно работать, у него большие ограничения по работе с бессознательным. Психотерапия — это контакт двух живых душ, в котором есть эмоциональная связь, а любые изменения происходят в отношениях. ИИ не может дать человеку новый опыт отношений и не может совместно с ним его проживать.

— Какие навыки эмоционального здоровья нужно развивать, чтобы технологии помогали, а не подменяли живую близость?

— Я думаю, нужна осознанность, чтобы понимать, зачем человек обращается к ИИ, навыки саморегуляции, когда человек может сам справляться с тяжелыми переживаниями, а не только с помощью чат-бота. А также эмпатию и толерантность к несовершенству других и взаимодействию с ними.

— Если бы у вас была возможность дать современному человеку один главный совет о любви и одиночестве в эпоху технологий, что бы это было?

— Возможно, это прозвучит банально, но я бы рекомендовала никогда не забывать, что настоящая любовь и близость случаются только при взаимодействии с живым человеком, с его душой и телом, когда он рядом.

Плюс в алгоритм зашита функция вовлечения пользователя — он никогда не предлагает закончить диалог, а вовлекает в его продолжение, что может вызывать зависимость.

Марина Крупеня, психолог