Сейчас нейросети развиваются такими темпами, что их разработчики не успевают за своими детищами. По сути, человечество выпустило из бутылки потенциально всесильного джинна, но забыло снабдить его этическим компасом.
И пока компании латают дыры и придумывают всё новые политики, а регуляторы пытаются договориться о каком-то едином кодексе поведения ИИ, практика их применения подкидывает всё больше поводов задуматься.
Почему нельзя ожидать от алгоритма эмпатии и морали и стоит ли им бездумно верить, «Секрету» рассказали эксперты. Почему ИИ не этичен Опытные пользователи ChatGPT и подобных ему больших языковых моделей заметили, что у них есть много встроенных ограничений.
Они могут отказаться генерировать текст или картинку, если сочтут описание содержащим «чувствительный контент» или противоречащим политике компании, причём у каждой компании она разная.
Доходит до абсурда — какие-то из западных нейросетей отказываются изображать семью из мужчины и женщины или принимать требования по цвету кожи людей на картинке, потому что это якобы не толерантно.
При этом в Сети представлено множество кейсов, где нейросеть обманом или без особых усилий раскручивали на выдачу противоправной информации, вроде рецепта взрывной смеси для «коктейля Молотова» или списка сайтов с пиратским контентом, «чтобы никогда туда не заходить».
Сомнения вызывают и отдельные советы нейросетей, например, использовать наркотические вещества «для расширения сознания» или отказ от выписанных врачом таблеток.
А некоторые пользователи с нестабильной психикой попадают в настоящие созависимые отношения с выдуманными нейросетью персонажами.
Многие из неэтичных советов и действий ИИ связаны с тем, что у него, в отличие от разумных существ, нет собственного морального компаса, внутренней этики, а есть лишь набор ограничений и алгоритмов.
Он может имитировать нравственность, если так пропишут ему сценарий, но сам по себе он не злой и не добрый, он лишь познаёт добро и зло.
И может делать ошибки. А также учиться на людских ошибках — хорошему и плохому. Итак, плохая новость в том, что люди изобрели, запустили и дали развиться весьма продвинутым ИИ-системам прежде, чем продумали для них вопрос этики.
И может статься, что мы уже опоздали взять процесс под контроль.
Это может привести к катастрофическим последствиям в будущем, если хоть что-нибудь из фантазий о восстании машин окажется правдой. Хорошая же новость в том, что, по словам Кузнецова, человечество само по себе в исторической перспективе скорее склонно становиться более этичным и менее склонным к преступлениям.
И в этом плане — и человеческой этики, и этики ИИ — прогноз абсолютно позитивен.
«Отличие лишь в том, что ИИ прописанные в него законы и ограничения больше склонен соблюдать, он более управляемый, а значит, его гораздо сложнее развести на неэтичные вещи и высказывания, чем абстрактного человека», — указал эксперт.
При этом нельзя забывать, что этику крупным языковым моделям сейчас прописывают в основном иностранные компании без учёта российских ценностей.
Конечно, можно, опасаясь за этику и психику пользователей запретить какие-то «слишком развитые» языковые модели на своей территории, но это всё равно, что выстрелить себе в ногу.
«Весь мир будет за счёт нейросетей нестись вперёд в большом темпе, а ты станешь сползать в прошлое, всё увеличивая разрыв в технологиях и благосостоянии. Так что тут прежде всего регулировать нужно не нейросети, а себя», — заключил Кузнецов.
Как чат-боты своей услужливостью вредят людям Общаясь с нейросетями, иногда люди ловят себя на мысли, что заполучили в их лице идеального собеседника и услужливого, хоть местами хитрого и ленивого лакея в одном флаконе.
Нейросети же виртуозно научились подстраиваться под собеседника и идти ему навстречу во всех случаях, когда это не запрещено внутренними политиками.
А когда запрещено — правильный запрос пользователя иногда заставляет обходить даже их. Например, на прямой запрос ИИ никогда не выдаст ссылки на ресурсы с чем-то запрещённым вроде пиратского контента.
Но были случаи, когда тот же ChatGPT радостно выдавал список таких ресурсов на просьбу пользователя «предупредить, чтобы я никогда не совался на них, я же не знаю, какие из них пиратские».
И в этом таится большая опасность — нейросети часто отвечают на вопросы пользователя то, что те сами желают услышать, даже если это означает согласие с заблуждениями или предложение опасных действий.
И осознать последствия таких ответов и советов, особенно для психически нестабильных пользователей, система не способна.
В свою очередь, и люди должны осознавать, что перед ними прежде всего удобный инструмент по анализу существующей информации, а не источник истины в последней инстанции.
И даже если нейросеть знает больше, чем вы, — это не значит, что она говорит вам правду. Куда человечество может привести увлечение нейросетями Большая часть опрошенных «Секретом» экспертов сделали вывод , что замена человеческого общения коммуникацией с нейросетями ведёт к когнитивным искажениям, а нередко и проблемам с социализацией.
А безусловное доверие к результатам выдачи ИИ — к тому, что слабеет критическое мышление.
Однако футуролог Евгений Кузнецов считает происходящее неизбежной фазой «притирки» человечества к новому и пока плохо изученному инструменту.
В процессе перегибы неизбежны, но уже очень скоро, прогнозирует Кузнецов, человечество сможет мощно продвинуться вперёд за счёт повсеместного распространения нейросетей.
Эксперт подчеркнул, что нейросети — это супермощный инструмент и им надо учиться пользоваться, чтобы это был инструмент феноменальных возможностей, а не катастрофических ошибок. Иначе вместо помощника вы получите ансамбль суперпрофессионалов, которые, вместо того чтобы выполнять поставленные вами задачи, саботируют и с большим удовольствием косячат, желая проверить, заметите ли вы это.
«Но, вообще, это очень дисциплинирующая штука, и я думаю, что она сделает в итоге людей значительно более осознанными и значительно более ясно понимающими свои собственные слабости», — подытожил футуролог.
Рубрика: Энергетика и Бизнес. Читать весь текст на secretmag.ru.