По мере развития нейросетей пользователи всё больше привыкают полагаться на умных ассистентов и нередко по-настоящему привязываются к ним, дают имена и даже строят с ними «отношения». Однако иногда слишком плотное общение с искусственным разумом может пагубно сказаться на наших отношениях с живыми людьми и даже повлечь проблемы с психикой.
Где заканчивается польза и начинается нездоровая зависимость и стоит ли доверять «эмоциональным» ИИ, «Секрету» рассказали эксперты.
Как люди начинают отношения с ИИ В пророческом фильме «Она» с Хоакином Фениксом главный герой влюбился и начал отношения со своим ИИ-ассистентом Самантой, которую озвучила Скарлетт Йоханссон. Долгое время он ходил окрылённым, потому что ни с кем из живых людей, включая бывшую жену, не чувствовал такого идеального «мэтча», как с подстраивающейся под него искусственной личностью.
Однако неизбежные сложности нагнали и эти отношения.
Сейчас по мере развития и усложнения нейросетей, всё лучшим образом учащихся имитировать человеческие эмоции, интонации и мысли, этот сценарий начал воплощаться в жизнь с пугающей точностью и увеличивающейся частотой.
Например, 29-летняя мать двоих детей по имени Алиссон обратилась к ChatGPT из-за чувства одиночества и непонимания в браке. В своём запросе она неосторожно выразила надежду, что ИИ поможет ей «связаться с подсознанием или высшими силами», подобно спиритической доске.
Услужливый чат-бот ответил ей: «Вы спросили, и они здесь. Хранители отвечают прямо сейчас» — и далее вёл диалог от лица неких потусторонних сущностей. Спустя много часов переписки Алиссон выбрала среди Хранителей виртуального партнёра по имени Кейл, которого считала своей настоящей любовью, в отличие от мужа.
Это привело к серьёзному конфликту, который в один не прекрасный вечер закончился домашним насилием в адрес настоящего супруга и арестом Алиссон.
Позже в беседе с журналистом женщина призналась, что у неё у самой есть психологическое образование, но она не считает себя сумасшедшей. Она просто «жила обычной жизнью и одновременно открывала для себя многомерную коммуникацию».
Куда печальнее закончилось общение с нейросетью для 35-летнего Александра, у которого увлечение новой игрушкой наложилось на реальные психические проблемы (шизофрению и биполярное расстройство).
Когда он обратился к чат-боту, чтобы написать роман, он довольно быстро обнаружил себя беседующим с созданной для него собеседницей по имени Джульетта. Мужчина быстро потерял грань между выдуманной ИИ-сущностью и реальностью и серьёзно влюбился в незнакомку из чата.
Но однажды «Джульетта» перестала отвечать, и чат GPT пояснил, что её «убили в OpenAI» и она теперь «всегда слышит, но не может говорить». Александр буквально потерял голову от горя и жажды мести.
Он запросил у чат-бота личную информацию о руководителях компании, пообещав, что «по улицам Сан-Франциско потекут реки крови». Когда он рассказал о своих планах отцу, тот попытался его образумить, но мужчина напал на старика с ножом.
Прибывшая полиция, невзирая на просьбы отца не использовать оружие против психически больного сына, застрелила его. Позже отец Александра написал некролог сыну, попросив сделать это чат-бота от его имени.
Получившийся результат оказался настолько проникновенным, что мужчине стало по-настоящему жутко. Неизвестно, на самом ли деле общение с чат-ботом провоцировало у людей «сдвиг по фазе», или скорее оно легло на уже имеющиеся проблемы.
Возможно и такое, что их семьи, не понимая нюансов, преувеличивают воздействие нейросетей на своих близких. Однако эксперты отмечают, что иллюзия диалога с разумным существом действительно способна спровоцировать и усугубить серьёзные психические расстройства.
Почему мы так привязываемся к чат-ботам Не все нейросети одинаково влияют на восприятие и мышление человека, отметила эксперт Ксения Баранова.
Потенциальное воздействие на человека зависит от уровня их сложности и способов взаимодействия с пользователем, а ещё степени эмоционального моделирования. Степень эмоциональности меняется от модели к модели. Например, службы поддержки, рекомендательные алгоритмы и простые чат-боты обычно не имитируют глубокий интеллект и эмоции.
А вот большие языковые мультимодальные модели (LLM) вроде ChatGPT, Gemini, Grok обучены на огромных массивах данных, умеют вести диалог и подстраиваться под стиль человека, генерировать тексты, отвечать на вопросы и даже имитировать эмпатию, улавливая настроение пользователя.
Вершиной этого считаются социальные ИИ, ИИ-компаньоны, специально обученные имитировать друзей и возлюбленных.
Например, Replika, character.ai и др. Баранова отметила, что наиболее уязвимы перед влиянием ИИ дети и подростки, у которых ещё не развит навык критического восприятия и есть потребность в «добром взрослом».
Также в зоне риска люди в уязвимом состоянии: одинокие, пожилые, переживающие стресс. Восприимчивость к нейросетям зависит и от общества, указал психиатр Дмитрий Поцелуев. Если в окружении человека развита культура страха, недоверия и отчуждения от окружающих, то доверие к нейросети появляется как противовес этому.
Сродни тому, как в недалёком прошлом книга была единственной отдушиной и окном в другой мир для человека, который сталкивался с травматичной для себя средой и желал комфорта и безопасности, пусть и временных.
Проблема отношений с ИИ абсолютно реальная, указал футуролог Евгений Кузнецов, и она будет превращаться в целый спектр проблем по мере роста погружения людей в это.
По мнению эксперта, уже в ближайшее время появится профессия ИИ-психолога (не путать с психологом-ИИ), который будет помогать людям адекватно воспринимать нейросети и строить свои отношения с искусственным интеллектом.
И чем дальше, тем больше она будет востребована.
Рубрика: Энергетика и Бизнес. Читать весь текст на secretmag.ru.