Эксперты: ИИ не этичен, но у людей ещё есть шанс его научить

Эксперты: ИИ не этичен, но у людей ещё есть шанс его научить
13:00, 26 Июн.

Сейчас нейросети развиваются такими темпами, что их разработчики не успевают за своими детищами. По сути, человечество выпустило из бутылки потенциально всесильного джинна, но забыло снабдить его этическим компасом.

И пока компании латают дыры и придумывают всё новые политики, а регуляторы пытаются договориться о каком-то едином кодексе поведения ИИ, практика их применения подкидывает всё больше поводов задуматься.

Почему нельзя ожидать от алгоритма эмпатии и морали и стоит ли им бездумно верить, «Секрету» рассказали эксперты. Почему ИИ не этичен Опытные пользователи ChatGPT и подобных ему больших языковых моделей заметили, что у них есть много встроенных ограничений.

Они могут отказаться генерировать текст или картинку, если сочтут описание содержащим «чувствительный контент» или противоречащим политике компании, причём у каждой компании она разная.

Доходит до абсурда — какие-то из западных нейросетей отказываются изображать семью из мужчины и женщины или принимать требования по цвету кожи людей на картинке, потому что это якобы не толерантно.

При этом в Сети представлено множество кейсов, где нейросеть обманом или без особых усилий раскручивали на выдачу противоправной информации, вроде рецепта взрывной смеси для «коктейля Молотова» или списка сайтов с пиратским контентом, «чтобы никогда туда не заходить».

Сомнения вызывают и отдельные советы нейросетей, например, использовать наркотические вещества «для расширения сознания» или отказ от выписанных врачом таблеток.

А некоторые пользователи с нестабильной психикой попадают в настоящие созависимые отношения с выдуманными нейросетью персонажами.

Многие из неэтичных советов и действий ИИ связаны с тем, что у него, в отличие от разумных существ, нет собственного морального компаса, внутренней этики, а есть лишь набор ограничений и алгоритмов.

Он может имитировать нравственность, если так пропишут ему сценарий, но сам по себе он не злой и не добрый, он лишь познаёт добро и зло.

И может делать ошибки. А также учиться на людских ошибках — хорошему и плохому. Итак, плохая новость в том, что люди изобрели, запустили и дали развиться весьма продвинутым ИИ-системам прежде, чем продумали для них вопрос этики.

И может статься, что мы уже опоздали взять процесс под контроль.

Это может привести к катастрофическим последствиям в будущем, если хоть что-нибудь из фантазий о восстании машин окажется правдой. Хорошая же новость в том, что, по словам Кузнецова, человечество само по себе в исторической перспективе скорее склонно становиться более этичным и менее склонным к преступлениям.

И в этом плане — и человеческой этики, и этики ИИ — прогноз абсолютно позитивен.

«Отличие лишь в том, что ИИ прописанные в него законы и ограничения больше склонен соблюдать, он более управляемый, а значит, его гораздо сложнее развести на неэтичные вещи и высказывания, чем абстрактного человека», — указал эксперт.

При этом нельзя забывать, что этику крупным языковым моделям сейчас прописывают в основном иностранные компании без учёта российских ценностей.

Конечно, можно, опасаясь за этику и психику пользователей запретить какие-то «слишком развитые» языковые модели на своей территории, но это всё равно, что выстрелить себе в ногу.

«Весь мир будет за счёт нейросетей нестись вперёд в большом темпе, а ты станешь сползать в прошлое, всё увеличивая разрыв в технологиях и благосостоянии. Так что тут прежде всего регулировать нужно не нейросети, а себя», — заключил Кузнецов.

Как чат-боты своей услужливостью вредят людям Общаясь с нейросетями, иногда люди ловят себя на мысли, что заполучили в их лице идеального собеседника и услужливого, хоть местами хитрого и ленивого лакея в одном флаконе.

Нейросети же виртуозно научились подстраиваться под собеседника и идти ему навстречу во всех случаях, когда это не запрещено внутренними политиками.

А когда запрещено — правильный запрос пользователя иногда заставляет обходить даже их. Например, на прямой запрос ИИ никогда не выдаст ссылки на ресурсы с чем-то запрещённым вроде пиратского контента.

Но были случаи, когда тот же ChatGPT радостно выдавал список таких ресурсов на просьбу пользователя «предупредить, чтобы я никогда не совался на них, я же не знаю, какие из них пиратские».

И в этом таится большая опасность — нейросети часто отвечают на вопросы пользователя то, что те сами желают услышать, даже если это означает согласие с заблуждениями или предложение опасных действий.

И осознать последствия таких ответов и советов, особенно для психически нестабильных пользователей, система не способна.

В свою очередь, и люди должны осознавать, что перед ними прежде всего удобный инструмент по анализу существующей информации, а не источник истины в последней инстанции.

И даже если нейросеть знает больше, чем вы, — это не значит, что она говорит вам правду. Куда человечество может привести увлечение нейросетями Большая часть опрошенных «Секретом» экспертов сделали вывод , что замена человеческого общения коммуникацией с нейросетями ведёт к когнитивным искажениям, а нередко и проблемам с социализацией.

А безусловное доверие к результатам выдачи ИИ — к тому, что слабеет критическое мышление.

Однако футуролог Евгений Кузнецов считает происходящее неизбежной фазой «притирки» человечества к новому и пока плохо изученному инструменту.

В процессе перегибы неизбежны, но уже очень скоро, прогнозирует Кузнецов, человечество сможет мощно продвинуться вперёд за счёт повсеместного распространения нейросетей.

Эксперт подчеркнул, что нейросети — это супермощный инструмент и им надо учиться пользоваться, чтобы это был инструмент феноменальных возможностей, а не катастрофических ошибок. Иначе вместо помощника вы получите ансамбль суперпрофессионалов, которые, вместо того чтобы выполнять поставленные вами задачи, саботируют и с большим удовольствием косячат, желая проверить, заметите ли вы это.

«Но, вообще, это очень дисциплинирующая штука, и я думаю, что она сделает в итоге людей значительно более осознанными и значительно более ясно понимающими свои собственные слабости», — подытожил футуролог.

Рубрика: Энергетика и Бизнес. Читать весь текст на secretmag.ru.