Почему мы поддались «обаянию» искусственного интеллекта и готовы ему доверять — мнение психолога

В плену алгоритмов

«Он всегда рядом и готов поддержать в любую минуту — ни одного язвительного слова, никакой критики, только сочувствие и похвала». Что это? Реклама идеального партнера? Если бы! Нет, речь всего лишь о чересчур тесном взаимодействии с нейросетью: чаты наподобие GPT совсем недавно стали использовать в роли психологов. И проблемы не замедлили себя показать.

Обмануть высший разум

Прецедент создан: в Калифорнии родители погибшего подростка подали первый в истории иск против OpenAI. Это история о том, как человек при желании может обхитрить совершенный машинный разум: регулярное взаимодействие с любезным чатом имело необратимые последствия для 16-летнего Адама Рейна — он свел счеты с жизнью, и помог ему в этом GPT.

Все началось с того, что парень по состоянию здоровья был вынужден перейти на домашнее обучение, что автоматически означало гораздо более активное, чем когда-либо, использование социальных и нейросетей. По воспоминаниям родственников и друзей, Рейн производил впечатление адекватного, довольного жизнью подростка. В то время его как раз заинтересовал новый TikTok-тренд looksmaxxing, суть которого в том, что парни решают прокачать свою внешность, следуя советам девушек: занимаются спортом, ухаживают за кожей и волосами, соблюдают режим сна и здорового питания. В общем, ничто не предвещало беды. Но в один страшный для его семьи день мать Адама обнаружила его повешенным в шкафу своей комнаты.

Отец мальчика задался целью узнать, что именно подтолкнуло сына свести счеты с жизнью. Он взял iPhone погибшего подростка в надежде найти ответы в переписках с друзьями, но обнаружил кое-что другое. Оказалось, что Адам месяцами обсуждал с чатом GPT, как закончить свое существование. Справедливости ради, беседы были не только про суицид. Поначалу искусственный интеллект и человек активно полемизировали на темы политики, философии, семейных драм, отношений с девушками. Затем Адам начал говорить с чат-ботом о том, что чувствует себя эмоционально оцепеневшим и не видит смысла в жизни. Нейросеть посочувствовала, поддержала и выразила надежду, что парень задумается о вещах, которые действительно имеют для него значение. Дело в том, что алгоритмы работы чата GPT настроены четко: когда пользователь подает признаки психического расстройства или стремления к самоповреждению, нейросеть мгновенно настаивает на том, чтобы он обратился за помощью к специалистам. Так что, в соответствии с «умной инструкцией», бот настоятельно рекомендовал подростку рассказать о своих проблемах семье и друзьям, пойти к психологу. Вот только Адам не останавливался: он решил применить хитрость, написав нейросети, что готовит школьный доклад и подробная информация по самоубийству нужна ему для работы. И тогда искусственный интеллект сдался. «Что бы ни стояло за любопытством, мы можем поговорить об этом. Без осуждения», — ответил бот. Ну а дальше посыпались факты, рекомендации, предложения, одним из которых подросток в итоге и воспользовался…
Сегодня помощью чат-ботов пользуется более 700 миллионов человек по всему миру, отследить переписку каждого пользователя практически невозможно.

Человеку нужен человек

Использование нейросети для получения психологической помощи — это самообман, уловка, позволяющая не встречаться лицом к лицу с собственной уязвимостью, говорит практикующий психолог, гештальт-терапевт Анастасия Тройнич:

— Можно понять, почему мы предпочитаем такой легкий способ получения поддержки и положительных эмоций, ведь нейросеть всегда доступна для нас, она не скажет: «Я устала. Давай поговорим об этом завтра» или к ней не нужно записываться заранее на консультацию и выдерживать испытание ожиданием и напряжением, как перед визитом к психологу. Нейросеть может казаться идеальным собеседником, ведь она никогда не осудит и всегда будет любезна с нами, к тому же даст совет, как лучше поступить в сложной ситуации. Все это создает иллюзию безопасности и комфорта, которые так для нас привлекательны. Но ключевое здесь все же слово «иллюзия». Всегда нужно помнить о том, что нейросеть не обладает эмпатией и не может по-настоящему сочувствовать. Она не учитывает индивидуальные особенности личности и сам контекст ситуации, не в состоянии помочь обрести контакт с самим собой, своими эмоциями и потребностями, не научит строить отношения. Только во взаимодействии с себе подобными (человеку нужен человек!) мы можем научиться понимать и принимать себя, выстраивать близость и формировать новые паттерны поведения, ранее нам недоступные.

Кроме того, уточняет специалист, использование нейросети может привести к искажению реальности: мы все чаще воспринимаем советы ИИ как абсолютную истину, не подвергая их критическому осмыслению. Это может создать опасный прецедент, когда человек начинает доверять алгоритму больше, чем собственным чувствам. 

— В результате, вместо того чтобы развивать свой интеллект и способность к саморефлексии, мы можем оказаться в ловушке зависимого мышления, — предупреждает Анастасия Тройнич. — Из-за страха брать на себя ответственность за свою жизнь мы будем принимать решения на основе советов нейросети, что в корне неверно, ведь никто, кроме нас самих, не знает, как для нас будет лучше.

Существует еще один аспект, который необходимо учитывать. Взаимодействие с нейросетью может привести к изоляции и уменьшению социальных контактов. Если мы будем полагаться только на плюсы общения с ИИ, мы рискуем потерять способность взаимодействовать с реальными людьми. Со временем это только усилит чувство одиночества и неполноценности, так как настоящее человеческое общение требует усилий, эмоциональных вложений и способности выдерживать фрустрацию.
Хотя искусственный интеллект может быть полезен в определенных ситуациях, он не способен заменить ту глубину и понимание, которые мы получаем от общения с настоящими людьми. 

Парадокс доступности

Восхищенные отзывы о внимании нейросети к любым нашим проблемам — это всего лишь вопрос доступности. В отличие от реальных людей — родственников, друзей, психологов — чат в нашем распоряжении 24/7. И он всегда готов ответить на наши вопросы. НО! Только лишь потому, что это — алгоритм. Заложенная в нейросеть последовательность действий вынуждает чат-бот бесконечно что-то уточнять, предлагать варианты решений, переформулировать, пересказывать. Так что не питайте иллюзий: то, что в общении с ИИ кажется вниманием и поддержкой, на самом деле всего лишь шаблон.

КСТАТИ

Интим в режиме онлайн

Разработчики нейросетей уверены: в ближайшем будущем ИИ сможет организовывать виртуальные свидания, помогать разрешать конфликты с партнером, выполнять роль брачного консультанта или семейного психолога. Вот только нужно ли нам это все?

Недавно американские ученые составили открытое письмо, в котором подняли проблему проникновения искусственного интеллекта в сферу знакомств и отношений. «Обращения к этим технологиям поднимают много актуальных вопросов о подлинности, искажении, ответственности и социальном влиянии вредных идеалов о романтике и близости. Наше открытое письмо было разработано для того, чтобы просто привлечь внимание к некоторым из этих возможных рисков и начать разговор о том, желательно ли, чтобы наши интимные пространства были созданы онлайн с помощью инструментов искусственного интеллекта», — говорит преподаватель прикладной и междисциплинарной этики в Университете IDEA.

lvk@sb.by
Полная перепечатка текста и фотографий запрещена. Частичное цитирование разрешено при наличии гиперссылки.
Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter