Пространство смыслов Алексея Каныгина Размышления о насущном

11.11.2025

Андроид с чувствами.

Filed under: Философия — admin @ 9:51 пп

Давайте представим задачу — создание робота андроида, который умелся проявлять чувства. До сих пор считается, что искусственный интеллект не способен, в отличии от человека, проявлять чувства, и не способен быть субъектом, то есть автором своих собственных намерений, он только реагирует в ответ на запрос со стороны подлинного субъекта — человека!

Я подумал, что одной нейросети видимо будет мало, ведь даже у человека есть рептильный мозг, есть лимбическая система, есть неокортекс… а еще есть нейросеть в желудочно-кишечном тракте. Получается — минимум 4 нейросети, работающих в связке. Неокортекс отвечает за логическое мышление, лимбическая система за чувства, а вот за работу Воли ещё не нашли нейросети, и даже нейронов и не выделили, которые «выражали» бы волю! Но это дело времени, если есть функция, найдётся и механизм…

А что если создать андроида, в котором будет хотя бы 3 нейросети, одна будет обучена на больших языковых моделях — формальному мышлению, что уже с успехом проделано в большом количестве нейросетей — это и чат GPT, и DeepSeek, и Manus и куча других. Вторую нейронку — обучить эмоциям, а третью — воле…

И здесь мы сталкиваемся с любопытным феноменом — если на больших языковых моделях нейросети показывают потрясающие результаты адаптации к логическому человеческому мышлению, оговорюсь — в варианте формальной логики, то возникает вопрос — а сможем ли мы такой же четкий результат получить для поведенческой модели, отражающей логику чувств, и для субъектной модели, отражающей проявление волевого начала?

То есть, что бы сделать андроида, который умел бы и плакать, и выражать свою волю, нам надо создать ещё 2 нейросети и обучить их проявлять чувства и волю, а потом собрать всё это вместе, видимо четвёртой сеткой, и мы получим робота, которого никто не отличит от настоящего человека!

Но здесь мы получаем любопытный феномен — если для обучения нейросети на языковых моделях всё есть — можно скармливать ИИ любые тексты, они очевидные, логичные и учиться на них — одно удовольствие! Но для обучения нейросети на эмоциональность потребуется уже не языковая, а поведенческая модель… а её в человеческой культуре нет!!! Мы люди, всё ещё сами для себя не смогли объяснить — как наши эмоции влияют на наше поведение, и к чему всё это приводит? Какие поведенческие модели мы умеем проявлять? До сих пор нет никакой классификации!

Нам нужен «костыль» в виде святого писания, который расскажет о 7 смертных грехах, но почему они — смертные? Согласно какому механизму проявление «жадности» или «зависти» приводит к смерти? И как обучить нейросеть тому, чего мы сами не понимаем? Какая логика работы у эмоций?

Эмоции — это ещё полбеды, если чувства мы хотя бы различаем, нам только логика их работы не ясна, то «моделью субъектности», по которой нам надо обучить третью нейросеть — вообще полная неразбериха! В этом вопросе мы даже состояния не научились разделять! Мы только начинаем обращать внимание, что есть какая-то «сила воли», что есть Дух, и библейское «Уныние» — это скорее про Дух, чем про Эмоции.

У нас в общечеловеческой культуре — огромная дыра, искусственный интеллект «подсветил» нам проблему, что если языковую логику мы освоили настолько, что даже ИИ смогли её обучить, то «логику чувств» и «логику воли» мы даже сами себе объяснить не можем! Мы не понимаем своего поведения, в культуре нет описаний «моделей поведения», которые мы могли бы «скормить» ИИ. Но хуже всего то, что мы до сих пор не понимаем — что же делает человека «человеком», его волевое начало!

Комментариев нет »

No comments yet.

RSS feed for comments on this post. TrackBack URL

Leave a comment

Powered by WordPress