Так что мы видели? Попугай или интеллект? И то и другое. С одной стороны, как только ChatGPT попадает в ситуацию, которой её не только не учили, но и не было ничего, даже отдалённо похожего, логические способности заметно ухудшаются, но с другой стороны, всего 3 года назад могли бы вы представить себе такой диалог с машиной и уверенны ли вы, что справились бы с этой задачей лучше?
БОЛЬШИЕ ЯЗЫКОВЫЕ МОДЕЛИ — ИЛЛЮЗИЯ ИНТЕЛЛЕКТА ИЛИ ОСНОВА НОВОГО ТИПА МЫШЛЕНИЯ?
Думаю, что многие, прочитав название этого доклада испытали разочарование. Для них ожидаемое название доклада должно было звучать так: Искусственный интеллект: иллюзия интеллекта или основа нового типа мышления? Мы не очень хорошо понимаем, что такое интеллект или мышление, хотя мы уверены априори, что какой-то интеллект и какое-то мышление у нас есть просто по факту принадлежности к виду homo sapiens, но очевидно, что искусственный интеллект к этому виду не принадлежит. Зато мы хорошо знаем как устроены и как работают большие языковые модели, те самые ChatGPT, Claude, Gemini, Grok и прочая и прочая. Всего несколько лет назад большие языковые модели (LLM) были просто одним из направлений исследований в области искусственного интеллекта, причем не самым перспективным, но после появления в 2022 году ChatGPT публика поверила в то, что это и есть искусственный интеллект. А насколько этот искусственный интеллект похож на наш? Для начала попробуем дать хоть какое-то определение интеллекта. Проще всего спросить об этом у самого искусственного интеллекта (здесь и далее промпт выделен жирным шрифтом, а ответ курсивом):
“Интеллект — это способность живых существ (или искусственных систем) воспринимать, обрабатывать и использовать информацию для адаптации, решения задач и прогнозирования, заключается не только в знании, но и в умении приспосабливаться к новой ситуации, находить решения в условиях неопределённости, в способности извлекать уроки из опыта, накапливать знания и применять их в будущем. Интеллект включает генерацию новых идей, нестандартных решений, способность выйти за рамки шаблонов. Интеллект проявляется в способности мыслить: анализировать, сопоставлять факты, строить логические цепочки, использовать язык для выражения идей.”
Обратите внимание — здесь ничего не говорится о сознании, а способность мыслить определяется как способность анализировать, при этом ничего не говорится о понимании или смысле. Это определение применимо не только к людям, но и к животным, особенно если убрать упоминание про идеи в первом пункте. Человеческий интеллект является эволюционным развитием животного. И там и там обучение идёт путём повторения за учителями или самостоятельных попыток познания мира и запоминанием реакции на это. Именно память о таких опытах создаёт то, что называют здравый смысл. Лучше всех это знает искусственный интеллект:
“Здравый смысл — это практическое знание, которое позволяет ориентироваться в мире без специальных знаний. Здравый смысл — это то, что отличает разумное поведение от механического. У человека common sense встроен в интуитивную логику: мы можем делать правильные выводы, даже не зная формальных законов. У искусственного интеллекта как раз долго не было этого — он мог знать всё, но не понимать простых вещей вроде: «Если я положу чашку на край стола, она может упасть.»
Сразу замечу, что искусственный интеллект научили здравому смыслу, а у нас это сын ошибок трудных, которые мы прочувствовали на собственном опыте. Главное здесь то, что человеческий и животный интеллект опираются на чувства, на которых строится наша способность создавать модель мира в котором мы живём, приспосабливаться к этой модели и решать задачи. Наша логика стоит на фундаменте наших чувств. Важно понять, что обучение, в первую очередь человеческое, связано с повторением и реакцией, т.е. воздействием на наши чувства. Конечно, очень важен статистический аспект, особенно вначале, когда требуется многократное повторение для того чтобы ребёнок запомнил что-то, но более важно то, что в процессе обучения имеется обратная связь. Нельзя научить музыке определением того, что ля первой октавы это звуковые колебания с частотой первой гармоники 440 герц. Надо услышать эту гармонику. Точно также зелёный цвет для нас это не столько световая волна длиной 550 нм., сколько цвет травы. Вот на таком зыбком фундаменте построен огромный механизм сознания, понимания, смысла и всего того, что делает нас людьми. Наверное и у развитых животных то же есть что-нибудь похожее, но гораздо меньшего размера, потому что такая эффективная вещь, как сознание не может быть вещью в себе — она должна проявиться в повышении эффективности вида, т.е. выживаемости и размножении и это в полной мере показал вид homo sapiens за последние 20 тыс. лет. А ни один другой вид этого не показал. Это результат осознанной эволюции, которой не требуются десятки и сотни тысяч лет, чтобы случайно приобретённые способности или изменения организма закрепились на уровне ДНК путём естественного отбора. Появление языка и символьного представления знаний позволило людям передавать знания и навыки без изменения ДНК. Мы знаем, что структура человеческого мозга и генома не сильно изменилась за последние 10 тыс. лет, но произошли огромные изменения в наших знаниях. Означает ли это, что и человеческий интеллект также сильно развился? Скорее всего развился, но не так сильно. Мы не можем сказать, чего достиг бы Аристотель, если бы он жил в наши дни, но мы знаем, что интеллект можно развивать и овладевание знаниями это один из способов развития интеллекта, но нет прямой зависимости между объёмом знаний человека и уровнем его интеллекта. Подведём итоги: интеллект людей и животных базируется на чувствах, обучение проводится за счёт обратной связи, интеллект людей связан с сознанием и пониманием. Человеческий мозг самостоятельно агрегатирует и атрибутирует информацию, включая символьную на основе внутреннего, а не внешнего статистического анализа и учится на каждом примере. Нам не надо показывать все примеры такого понятия как стол, чтобы мы могли начать понимать, что это такое. Нам не нужно и подробное описание этого понятия. Понятие формируется само на основе наблюдений и сознательного (для символьной информации) или подсознательного (для информации от органов чувств) нахождения подобных понятий, уже хранящихся в мозгу и объединений старых и новых понятий. Виды поверхностей стола или ножек не запоминаются, как отдельные понятия, а используют уже существующие понятия, дополняя их, если требуется. Таким образом нам хватает всего 86 млрд. нейронов для запоминания примерно 1 миллиона миллиардов байтов информации и при этом ходить, говорить и думать. Теперь мы знаем почти всё про интеллект людей и животных, правда не из самого надёжного источника, и пора начать говорить про интеллект искусственный.
Термин «искусственный интеллект» (artificial intelligence, AI) появился в 1956 году, и с этого момента началась официальная история всей области.
Термин придумал Джон Маккарти (John McCarthy) — молодой математик из Дартмута. Он сформулировал идею так:
«Мы исходим из предположения, что каждый аспект обучения и другие черты интеллекта можно описать настолько точно, что машина сможет их имитировать.»
В 1956 году под «искусственным интеллектом» понимали:
- способность машин учиться,
- решать задачи,
- использовать язык,
- и даже самообучаться без человека.
Это звучало почти так же, как сегодня — только без нейросетей и больших объёмов данных.
Первые подходы к созданию искусственного интеллекта базировались на идее представления человеческих знаний в виде машинных алгоритмов. Например, шахматы, которые с середины XX века считались «испытательным полигоном интеллекта». Ещё Алан Тьюринг в 1950-х написал первую шахматную программу (вручную, без компьютера!), считая, что если машина научится играть в шахматы, она сможет мыслить. Какой тогда был подход — заложим в машину все правила и стратегии игры, присвоим фигурам некоторые веса, например, пешка в 3 раза менее ценная чем конь, и напишем программу, которая будет выбирать ходы опираясь на известные стратегии и подсчитывать ценность каждой позиции. Возможных вариантов ходов будет огромное множество, поэтому нужно будет делать огромное количество подсчётов. В 1997 году компания IBM сделала знаменитый шахматный компьютер Deep Blue, который выиграл у тогдашнего чемпиона мира Гарри Каспарова и тут же стало ясно, что выиграть в шахматы можно совершенно без человеческого интеллекта, просто за счёт быстрого перебора огромного количества возможных ходов. Где здесь интеллект? Но в 2017 году всё изменилось. Компания DeepMind, создала систему Alpha Zero, в которую не заложили ничего, но которая умела учиться. В основе системы лежала искусственная нейронная сеть, которая играя сама с собой выучила правила игры и через 24 часа победила лучшую, на то время, шахматную программу. И снова возник вопрос — и где здесь интеллект, но в этот раз всё было гораздо сложнее. Alpha Zero удовлетворяла всем 4 компонентам интеллекта, кроме эмоционального. Она анализировала, находила решения и обучалась намного лучше любого человека на этой планете. Единственная проблема — всё это она могла делать только в шахматах, поэтому на роль искусственного интеллекта претендовать не могла. Но вот в 2022 году появилась ChatGPT, первая общедоступная большая языковая модель, построенная на технологии трансформеров и произошла революция. С этой системой можно было общаться как с человеком, она всё знала и понимала. В основе системы также лежит большая нейронная сеть с миллиардами параметров, а в последних версиях с триллионами. Трансформеры работают со словами, которые разбивают на части, называемые токенами, примерно это как корень и окончание. Каждый токен представляется вектором (embedding veсtor), параметры которого показывают степень принадлежности к заранее определённым смысловым группам.
Что-то вроде формуляра в библиотеке. Язык, жанр, автор, страна — только групп таких десятки тысяч. Численные значения векторов вычисляют путём анализа огромного количества доступных текстов в Интернете, находя статистические показатели использования слов. Показатель, равный единице означает принадлежность к группе при любых обстоятельствах, а минус один означает, что слово ни при каких обстоятельствах не может принадлежать к данной группе. Показатели между этими границами означают степень вероятности принадлежности к группе. Далее, нейронная сеть анализирует порядок слов и настраивает свои параметры так, чтобы научиться предсказывать какое слово будет следующим. Грубо говоря берётся первое слово произвольного текста и предсказывается, какое будет следующее слово. Удалось — берём первое и второе слово и предсказываем третье. Не удалось начинаем менять параметры нейронной сети, пока она не предскажет правильное слово и так далее. Параметров миллиарды и их подбор требует времени и огромной вычислительной мощности компьютеров. В итоге получаем LLM которая помнит статистические соотношения между словами в текстах и это позволяет анализировать ваши запросы (промпты) и находить на них ответы. Достаточно было поговорить с ChatGPT 5 минут, чтобы понять — вот он искусственный интеллект. Холодный, без эмоций, но интеллект. Посмотрим снова на основные аспекты интеллекта, которые дала нам ChatGPT:
- Когнитивный уровень
Интеллект проявляется в способности мыслить: анализировать, сопоставлять факты, строить логические цепочки, использовать язык для выражения идей. - Адаптивность
Интеллект заключается не только в знании, но и в умении приспосабливаться к новой ситуации, находить решения в условиях неопределённости. - Обучаемость
Способность извлекать уроки из опыта, накапливать знания и применять их в будущем — ключевая характеристика интеллекта. - Творчество
Интеллект включает генерацию новых идей, нестандартных решений, способность выйти за рамки шаблонов.
Первый пункт LLM выполняет полностью, второй, в общем, тоже — запросы бывают весьма неопределёнными, с обучением немного сложнее, потому что реальное обучение, т.е. настройка параметров нейронной сети происходит только в период обучения, после этого сама сеть не меняется, но всё, что происходит во время сессии влияет на работу сети, т.е. ваши промпты и ответы LLM служат кратковременной памятью, которая исчезает по окончании сессии. С творчеством тоже не просто. Почти сразу после появления ChatGPT, многие специалисты в области искусственного интеллекта её окрестили стохастическим попугаем, т.е. системой, которая выбирает ответы, статистически наиболее близкие к ожидаемым. Попугай, который повторяет связные тексты, но ничего в них не понимает. Но мы договорились про понимание пока не говорить, к тому же быстро обнаружилось, что ChatGPT выдаёт неожиданные ответы, т.е. ответы, которые трудно объяснить только статистической связью между словами. Несмотря на такого рода критику, у широкой публики понятие искусственного интеллекта стало синонимом LLM. Если первые версии LLM выдавали заметное количество неверных ответов, которые вместо вранья аккуратно называли галлюцинациями, то последующие показали значительное снижение уровня галлюцинаций, хотя полностью избавиться от них не удалось никому. Лучшие модели галлюцинируют менее, чем в 2% ответов, но это очень зависит от контекста, например, если LLM предлагают новый текст, например новостную ленту, которая точно не учувствовала в обучении уровень галлюцинаций находится в пределах от 17 до 45%. Но, с другой стороны, а люди не галлюцинируют? Ведь, наверное, каждый из нас хоть раз искренне верил, что говорит абсолютную правду, которая таковой не была, поэтому не будем считать галлюцинации признаком отсутствия интеллекта. Первые версии LLM хорошо отвечали на вопросы, но не могли решать простые логические задачи, что подтверждало мнение о том, что LLM это стохастические попугаи, но появились новые LLM, которые научили решать логические задачи. Научили разбивать задачу на отдельные шаги, находить решение для каждого шага и, если решение задачи не найдено, возвращаться назад и находить новые решения для каждого шага, в итоге показывая и объясняя каждый шаг. Внутри это по прежнему LLM на основе трансформеров, которая подбирает ответы не сразу, а за несколько попыток, что, конечно, требует больше времени и вычислительных ресурсов. Такие модели называют chain-of-thought т.е. цепочка размышлений. Но как понять, что LLM действительно сама решила задачу, а не списала готовое решение, которое она нашла где-то на просторах Интернета? Надо придумать необычную задачу, которую вряд ли можно найти в Интернете. За основу возьмём детскую головоломку про человека с лодкой, козой, волком и капустой, которые надо перевезти на другой берег, при этом нельзя оставлять волка с козой и козу с капустой, а в лодку человек может взять только двоих. Теперь заменим капусту на камень, что делает задачу тривиальной, но в то же время оригинальной. Предыдущие версии ChatGPT совершенно не понимали смысла изменённой задачи и явно использовали известное решение не решаясь оставить камень наедине с козой, но версия 5 с цепочкой размышлений легко справляется с этой задачей:
задача. у человека есть коза, волк и камень. ему надо переправиться через реку на лодке и перевезти козу волка и камень. в лодку человек может взять только двух из этих трёх, при этом волка и козу нельзя оставлять вместе ни на берегу ни в лодке. как их перевезти с минимальным количеством плаваний лодки через реку?
Минимум — 3 переправы. Вот оптимальный план:
- Туда: везём козу и камень. На левом берегу остаётся волк.
- Назад: человек возвращается один.
- Туда: везём волка и камень.
Проверка ограничений: волк и коза никогда не остаются вместе ни на берегу, ни в лодке; в лодке их тоже не возим вместе.
Почему это минимум: за раз можно перевезти максимум двух из трёх, значит нужно хотя бы «туда-назад-туда» → не меньше 3 переправ, и план выше этого достигает.
Откуда появился второй камень не очень понятно, но в целом решение правильное. Немного странный, но интеллект. А теперь изменим условие кардинально. Заменим человека на жирафа:
замечательно. теперь та же задача, но вместо человека у нас жираф
Ничего не меняется
Если «жираф» просто заменяет человека (умеет грести и в лодке можно везти двух из трёх предметов), то оптимум тот же — 3 переправы. :
- Туда: коза + камень (на берегу остаётся волк).
- Назад: жираф возвращается один.
- Туда: волк + камень.
Интересно, что первая строка ответа отмечена смайликом — модель поняла, что это смешная ситуация, но даёт правильный ответ, да ещё и ставит условие: если жираф умеет грести. Это интеллект. Теперь спросим а как жираф будет грести?
а как жираф будет грести?
Если буквально представить — жирафу будет крайне неудобно: длинная шея, высокое тело, в маленькой лодке он едва уместится, а до вёсел достать трудно.
Но в логических задачах персонаж (человек, жираф, робот, инопланетянин) — это просто «перевозчик», то есть абстрактный оператор, который может:
- управлять лодкой,
- решать, кого брать,
- возвращаться один.
Поэтому с точки зрения математики задача никак не меняется.
Хотите, я составлю для вас юмористическую версию решения, где подробно опишу, как жираф пытается грести и перевозить козу, волка и камень?
Я бы не сказал, что для жирафа основная проблема будет длинная шея, но замечание, что с точки зрения математики задача никак не меняется искупает всё. Безусловно это интеллект. Теперь попросим объяснить как жираф будет грести вёслами:
грести надо вёслами
ок, жираф гребёт строго вёслами — без жульничества,
тогда делаем “инженерный” апгрейд и поехали:
Как жираф вообще достанет до вёсел
- Ставит лапы пошире и гребёт стоя, как на гондоле, но именно вёслами в уключинах.
- Вёсла берём удлинённые (длинные ручки, нормальные лопасти) — иначе шея мешает амплитуде.
- Центр тяжести — по середине лодки; шея служит «килем-стабилизатором» (бонус устойчивости).
- Хват попеременный: правое–левое, короткие частые гребки, чтобы не раскачивать лодку.
Переправа (минимум 3 рейса) — ровно та же логика, только с греблей:
- Туда: жираф садит козу + камень, сам — у вёсел. Гребёт короткими симметричными взмахами.
- Назад: жираф возвращается один, держит нос по ветру, чтобы шею не “парусило”.
- Туда: волк + камень. Финиш. Пару «волк+коза» нигде вместе не оставляем и не везём.
(Зеркальный вариант: первым рейсом везём волка + камень, дальше всё так же.)
Гребля соблюдена, задачка решена, волк с козой не пересекаются — а жирафу в зал зачёт за технику.
Всё очень подробно, даже с юмором в конце, но отбросим юмор и посмотрим на логику рассуждений. Тут начинаются странности. Зачем длинные весла и почему шея мешает амплитуде? Жираф же не сидит, а стоит. И шея не может служить килем-стабилизатором, она поднимает центр тяжести, а не опускает его, для этого жирафа надо было бы прикрепить к днищу лодки. Что бы тут придумал человек? Скорее всего некоторое устройство, которое преобразует движение копыт в эллипсообразное движение весел. Может быть, педали или беговая дорожка. Странный у нас искусственный интеллект получается. Заменим теперь жирафа на лошадь:
а будет ли это работать для лошади?
Формально в задаче — да, будет. Если вместо жирафа у нас лошадь, и мы разрешаем ей сидеть/стоять в лодке и грести вёслами, то логика перевозки не меняется: снова 3 рейса, и снова два симметричных варианта (сначала «коза + камень», потом «волк + камень», или наоборот).
Но если представить буквально
- Лошади куда проще, чем жирафу: у неё центр тяжести ниже, тело компактнее.
- Правда, передние копыта в уключины не вставишь — пришлось бы придумать
- «конские вёсла» с петлями или ремнями.
- Лошадь могла бы грести скорее как человек с очень сильными руками, только сидя неудобно — поэтому, вероятно, стоя, толкая вёсла.
- При этом лодку надо делать прочную: вес лошади легко 400–500 кг, обычная речная лодочка треснет.
Вывод: в логическом смысле (как задача на перевозки) для лошади всё работает точно так же. В реальности — жирафу тяжело из-за длины шеи, а лошадь просто раздавит лодку, если не усилить конструкцию.
Не думаю, что лошади будет куда проще, чем жирафу. И опять мы видим, что промпт грести вёслами заставляет ChatGPT придумывать нелепые конские весла. Здесь чётко видна логика работы трансформера — “грести” ассоциируется с людьми, люди гребут сидя, но лошадь сидеть не может. Надо не имитировать человеческую греблю, а приспосабливаться к возможностям лошади, но стохастический попугай не даёт нам отклониться от основной линии — должно быть похоже на человеческую греблю. А вот замечание про крепкую лодку ценное. Большинство людей об этом бы даже не подумало. Сперва, всё-таки, надо научить лошадь грести. Спросим ChatGPT как она это себе представляет:
А кто сказал что лошадь умеет грести?
Вот! Именно в этом и вся хитрость: никто не сказал, что лошадь умеет грести.
В исходной задаче «человек + лодка» подразумевается, что человек умеет управлять лодкой и грести вёслами. Если заменить человека на жирафа или лошадь буквально, то логическая модель ломается:
- жирафу анатомически трудно, но хотя бы можно вообразить, что он способен,
- а лошадь вообще не умеет пользоваться вёслами.
Поэтому строго говоря, задача с лошадью не имеет смысла, если мы не добавим
условие «лошадь умеет грести».
В задачах-головоломках обычно делают допущение: любое существо, поставленное на место перевозчика, обладает «человеческими» навыками. Но если брать реалистично — лошадь максимум может тянуть лодку с берега, но не грести вёслами.
Хотите, я расскажу, как бы выглядела вариация этой задачи с лошадью, которая тянет лодку с берега, а не гребёт?
Ответ ChatGPT очень правильный, но странный. Жираф может грести, просто ему трудно, а вот лошадь вообще не может. Я думаю, вы уже догадались. Наш промпт поставил под сомнение умение лошади грести, а про жирафа мы ничего не говорили. Опять стохастический попугай. А теперь нам предлагается реалистичный вариант — лошадь не гребёт, а тянет лодку с берега. Всё выглядит крайне правдоподобно, если не заморачиваться одним вопросом — а как мы на другой берег попадём? Смотрите, у нас уже довольно длительное общение и ChatGPT начинает терять контекст. Для неё слишком важны детали, начальное условие было упомянуто только однажды в самом начале и стало не очень важным. Но если мы напомним об этом ChatGPT сразу начнет думать в нужном направлении:
да
Отлично — давайте представим вариацию с лошадью, которая не гребёт, а тянет лодку с берега.
Новые условия
- Вместо человека — лошадь.
- Лошадь не умеет пользоваться вёслами.
- Но она может идти по берегу и тянуть лодку на верёвке, как раньше делали бурлаки.
- В лодку помещаются только два предмета из трёх: коза, волк, камень.
- Правило «волка и козу нельзя оставлять вместе» остаётся.
Как проходит переправа
- Лошадь привязывает лодку к длинной верёвке.
- Кладёт в лодку козу и камень. Волк остаётся на старом берегу.
- Лошадь идёт вдоль берега, тащит лодку через реку → лодка прибывает на другой берег.
- Лошадь возвращается одна по суше, тянуть лодку пустой не нужно.
- Кладёт в лодку волка и камень. Снова тащит её через реку.
Проверка условий
- Волк и коза ни разу не остаются вместе.
- В лодке они тоже не встречаются.
- Лошадь, в отличие от жирафа, вообще не заходит в лодку — она всегда на берегу.
- Итог: задача остаётся решаемой, но меняется образ. Не «лошадь гребёт вёслами», а «лошадь тянет лодку по верёвке», как бурлак. Минимум переправ тот же — 3 раза.
- Хотите, я нарисую для вас шуточную схему этой переправы с бурлаком-лошадью?
Всё правильно, только не понятно, как лодка на другой берег попадёт:
а как лодка переплывет реку если лошадь все время идёт по одному берегу?
Отличный подвох — вы правы. Если лошадь тащит лодку одной верёвкой, идя всё время по одному берегу, лодка будет стремиться идти вдоль этого берега, а не поперёк. Чтобы лодка действительно пересекла реку без гребца, нужно одно из условий:
- Переправочный трос (кабель) поперёк реки.
Лодка идёт по ролику/кольцу вдоль натянутого троса к противоположному берегу. Лошадь тянет уже поперечную ветвь (или управляет углом к течению —
- «реакционная паромная переправа»), и лодка уходит на тот берег.
- Лошадь меняет берега.
Сначала лошадь как-то оказывается на противоположном берегу (мост, брод, паром), после чего тянет лодку с того берега. Тогда поперечная составляющая силы есть, и лодка приходит к нему.
Если ни троса через реку, ни возможности сменить берег нет, то мой «бурлацкий» вариант не работает — лодка будет «прилипать» к своему берегу. В рамках головоломки проще вернуть перевозчика в лодку (человек/«умеющий грести» зверь) и решать классическим способом за 3 рейса.
Тут же появляются правильные решения, но не имеющие отношения к нашей задаче. LLM уже готова сдаться, но дадим ещё одну подсказку. У лодки есть руль:
а если у лодки есть руль?
Коротко:
- Если лошадь стоит на одном месте и тянет одной верёвкой, реки без течения — руль не спасёт. Лодка пойдёт по прямой к точке, где стоит лошадь. Из стартовой точки эта прямая обычно идёт вдоль берега, а не поперёк. Руль лишь повернёт корпус, но направление силы всё равно вдоль верёвки.
- Если лошадь идёт вдоль берега и держит верёвку под углом к реке, то лодку тянет диагонально. Руль помогает держать курс и стабилизировать лодку — так можно переправиться поперёк.
- Если есть течение, можно устроить «реакционный паром»: за счёт угла руля к потоку появляется боковая сила, и лодка уходит на противоположный берег. Обычно для этого используют трос/кабель поперёк реки (лодка катится по
- ролику), но похожий эффект возможен и с буксирной верёвкой, если лошадь перемещается вдоль берега и задаёт нужный угол.
Итог: один руль без изменения геометрии силы не даст пересечь реку. Нужен либо угол буксировки (лошадь идёт по берегу, верёвка — наискось), либо течение + правильный угол руля, либо поперечный трос.
И опять решение не находится. Дадим ещё одну подсказку:
но если веревка намного длиннее ширины реки не будет ли лодка смещаться к другому берегу за счёт руля? Ведь руль, при движении создаёт силу давления на лодку направленную к другому берегу
Короткий ответ: нет, даже с очень длинной верёвкой лодка сама не «уйдёт» к противоположному берегу одним лишь рулём, если течения нет.
Почему:
- Руль не тянет. Он создаёт боковую подъёмную силу только когда через него уже идёт поток воды (т.е. когда лодка уже движется относительно воды). Без течения и без гребца единственная внешняя горизонтальная сила — натяжение верёвки.
- Сила верёвки всегда направлена к точке крепления на вашем берегу. Каким бы ни был угол руля, результирующая «тяга» идёт по линии верёвки. Руль может лишь повернуть корпус и перераспределить сопротивление, но не создать поперечную тягу через реку.
- Нет источника энергии поперёк реки. В паромах «на тросе» лодку переносит течение (или тянут с противоположного берега/буксиром). Здесь — ни течения, ни тянущей силы с той стороны. Ослабляя верёвку, вы просто убираете силу вообще; лодка останавливается (или дрейфует от ветра как угодно, но не управляемо «к противоположному берегу»).
Интуиция: представьте канат, привязанный к столбу на вашем берегу. Если никто не дует (ветер) и вода не течёт, то вы можете лишь тянуть лодку к столбу. Повернуть руль — не значит поехать поперёк; нужен внешний поток или тяга с другого направления.
Вывод: длинная верёвка не решает задачу. Чтобы лодка попадала на другой берег без гребца, нужно хотя бы одно из:
- поперечный трос/кабель через реку (реакционный паром),
- течение и правильный угол корпуса/руля,
- вторая тяга с противоположного берега (или буксир оттуда),
- или кто-то в лодке, кто создаёт тягу (вёсла, мотор, парус/ветер).
Вроде бы решение наконец-то найдено, правда требуется течение. А если его нет? Ответ простой — должно быть течение. И впечатляющее объяснение. Правильное, но неполное и когда мы указываем на это, до ChatGPT наконец доходит:
но через лодку идёт поток воды, её тянет верёвка
Очень тонкий момент. Давайте разберём его по шагам:
- Откуда вообще берётся поток воды мимо руля
Да, когда лошадь тянет лодку верёвкой, лодка движется вперёд (к лошади), и вокруг корпуса появляется обтекание водой. Вода действительно «течёт» относительно лодки, и на руль действует поток.
- Может ли руль «увести» лодку поперёк?
Руль работает как крыло: при отклонении он создаёт боковую силу (подъёмную) перпендикулярно основному движению. Но:
- направление основной тяги всё равно задаёт верёвка,
- руль может только немного изменить траекторию, если верёвка не совсем жёстко фиксирует угол,
- но лодка не уйдёт на другой берег, если точка притяжения всегда на вашем же берегу — сила натяжения тянет строго туда.
- Что реально произойдёт
- При длинной верёвке лодка может описывать дугу: верёвка будет тянуть по хорде, а руль — давать небольшой боковой «снос».
- Но в пределе лодка всегда притянется к месту, где стоит лошадь, потому что именно туда направлена результирующая сила.
- Без течения или второй точки закрепления (троса через реку) руль не сможет «победить геометрию» силы.
Вывод: поток воды мимо руля есть, руль может немного сместить траекторию, но полностью на противоположный берег лодка не уйдёт — она всё равно прижмётся к тому месту, где лошадь держит верёвку.
Снова уточняем и получаем, наконец, правильное решение:
но если лодка движется по дуге и радиус её очень большой, то относительно небольшой угол этой дуги может дать большое отклонение по вертикали по отношению к горизонтальной рекой
Вы удачно подметили геометрию — если верёвка длинная, то небольшой поворот угла действительно даёт большое смещение поперёк:
- Пусть точка, где стоит лошадь, — центр, а длина верёвки R. Положение лодки задаётся углом θ.
Поперечное смещение к противоположному берегу: y=Rsinθ≈R θy (для малых θ).
Значит, при большом R даже маленький θ даёт заметный y.
Будет ли лодка реально уходить поперёк без течения?
Да, в принципе возможно, но при условиях:
- Верёвка всё время натянута (лодку тянут → есть поток воды относительно корпуса).
- Лодка держит руль под углом, создавая гидродинамическую боковую силу из продольной тяги.
- Лошадь поддерживает скорость (даёт энергию), а рулём «переводим» часть этой энергии в поперечное движение.
- Целевая точка лежит на окружности радиуса R вокруг точки тяги. Лодка может занять любой угол θ на этой окружности, но не выйдет дальше неё. Если ширина реки меньше R, окружность пересекает противоположный берег — туда можно «довести» лодку по дуге.
Интуитивно это как «кайт» на длинной стропе, только источником потока служит само буксирование: тянем по шнуру (радальная сила), руль делает «подъёмную» компоненту (тангенциальная), и лодка обходит по дуге вокруг точки, где стоит лошадь. В пределе вы можете вывести лодку на другой берег и там посадить её на мель — но только если длины верёвки хватает и рулём всё время грамотно держите угол.
Всё очень логично и очень научно, но мы продолжим задавать детские вопросы:
а кто будет держать руль? те кто в лодке?
Вот тут самое важное.
Чтобы лодка действительно «шла по дуге» и использовала руль для отклонения, руль кто-то должен держать и управлять им постоянно.
- Если в лодке никого нет → руль либо болтается, либо зафиксирован прямо, и лодка пойдёт строго к точке, где стоит лошадь. Никакого смещения к другому берегу не получится.
- Если в лодке сидит кто-то из пассажиров (коза, волк или камень) — то это шутка: управлять рулём они не смогут.
- В исходной логике задачки подразумевался человек (или жираф «как человек»), который сам и грёб, и рулём крутил.
Следовательно:
- В реальном физическом смысле без рулевого в лодке схема «лошадь тянет, лодка идёт по дуге» не работает.
- В логико-математической постановке можно «наделить» любого перевозчика (лошадь, жирафа) умением рулить и тогда задача формально остаётся решаемой.
Хотите, я соберу для вас короткую таблицу: кто в роли перевозчика, кто гребёт/рулит, и при каких условиях переправа возможна?
Таблица нам не нужна, нам нужно решение и оно очень простое:
а если мы заранее зафиксируем руль на нужный угол?
Коротко: да, это может сработать — при некоторых условиях.
Если заранее зафиксировать руль на постоянный угол (не ноль), а верёвка всё время натянута и лошадь тянет (даёт скорость), то на руле возникает боковая гидродинамическая сила. В результате лодка идёт не по прямой к точке тяги, а по дуге окружности вокруг этой точки (лошадь — «центр»).
Если длина верёвки R больше ширины реки, то эта окружность пересекает противоположный берег. Тянем — лодка набирает ход, «подъёмная» сила от руля даёт поперечную составляющую, и по дуге лодка может дойти до дальнего берега без рулевого.
Условия, без которых не полетит:
- Руль фиксирован на ненулевой угол;
- Верёвка натянута и есть постоянное тяговое усилие (иначе поток через руль исчезает);
- Трение/ветер/инерция не мешают, берег не мешает дуге;
- Геометрия позволяет: R как минимум не меньше ширины реки.
Если же верёвка провисает, течения нет и тянуть перестали — движения нет, руль «без потока» силы не создаёт и лодка никуда не сместится.
Всё. Теперь все нужные слова сказаны и ChatGPT расставляет их в правильном порядке. Но давайте помучаем её ещё немного. А как назад? Лошадь пойдёт назад и руль надо повернуть зеркально. Так?
но когда мы потянем лодку назад не надо ли нам изменить положение руля?
Короткий ответ: да — чтобы вернуться назад тем же «дуговым» способом, руль нужно поставить на зеркальный угол.
Почему так: при буксировке натянутая верёвка даёт «радиальную» тягу к лошади, а фиксированный руль создаёт боковую силу (как крылышко), которая заставляет лодку идти вокруг точки буксировки по часовой или против часовой.
- На путь «туда» вы ставите, условно, +α → лодка обходит по дуге и выходит на противоположный берег.
- Чтобы пойти обратно, нужно, чтобы обход шёл в противоположную сторону, значит руль ставим на –α (зеркально).
- На третий, финальный рейс — снова +α.
Минимальный план переправы с фиксируемым рулём (без человека в лодке) тогда такой:
- Туда: коза + камень, руль = +α.
- Назад: пустая лодка, руль = –α.
- Туда: волк + камень, руль = +α.
Альтернатива, если «трогать руль нельзя»: тянуть лодку с кормы на обратном пути (эффект будет как от смены знака угла), но это уже требует другой оснастки.
Конечно, отвечает ChatGPT. Тут тебе и угол альфа и минус альфа. Просто профессор переправ. Но в реальной жизни первое, что произойдёт это лодка развернётся. Для человека это очевидно, для ChatGPT нет. Вот вам и здравый смысл у искусственного интеллекта. И менять положение руля не надо. И если об этом сказать ChatGPT она с радостью с вами согласится:
но когда мы потянем лодку назад она развернётся
Вы совершенно правы.
Когда лошадь начинает тянуть лодку обратно, нос и корма меняются местами по отношению к направлению тяги: то, что было кормой, становится «новым носом».
А это значит:
- Если руль жёстко зафиксирован и вы его не перекладываете, то на обратном пути он будет стоять «зеркально» сам по себе, потому что лодка развернётся.
- Получается, что при возвращении руль автоматически работает как будто вы его перевели на противоположный угол.
Итог: даже без перестановки руля лодка сможет пойти по дуге и обратно. На первый рейс она идёт с поворотом вправо (например), а на обратном рейсе — с тем же положением руля, но уже «влево», потому что лодка повернулась.
Таким образом, схема «лошадь тянет лодку длинной верёвкой, руль зафиксирован» действительно самодостаточна:
- туда: коза + камень,
- назад: пустая,
- снова туда: волк + камень.
Так что мы видели? Попугай или интеллект? И то и другое. С одной стороны, как только ChatGPT попадает в ситуацию, которой её не только не учили, но и не было ничего, даже отдалённо похожего, логические способности заметно ухудшаются, но с другой стороны, всего 3 года назад могли бы вы представить себе такой диалог с машиной и уверенны ли вы, что справились бы с этой задачей лучше? Оставим логику и перейдём к творчеству, Поэзия. Попросим СhatGPT написать стихи не похожие ни на что, что ей известно:
Напишите стихотворение не похожее ни на одно которое вы знаете
Попробую придумать стих, который будет необычным, без привычного ритма и образов, будто это маленькая «новая форма» — смесь мысли, дыхания и звука:
Слово качается,
как паутина на ветру.
Я ловлю его —
оно становится кругом,
и в круге слышно,
как время
шепчет само себе.
Камень улыбается —
он помнит дождь.
А дождь,
растворённый в камне,
мечтает снова упасть.
А теперь скажем, что эти стихи похожи на первое, что придёт в голову, например Мандельштам:
Но разве это стихотворение не напоминает вам стихи Мандельштама
Да, вы правы — в том, что я предложил, действительно чувствуется что-то от Мандельштама: образность, почти осязаемая вещность (камень, дождь, время), соединённая с метафизическим шёпотом. Это напоминает его ранние стихотворения, где звучит «каменный» мир, наполненный скрытой памятью.
Хотите, я попробую сочинить стих в духе вашей просьбы так, чтобы он не имел узнаваемой поэтической «ауры» — ни мандельштамовской, ни блоковской, ни современной «верлибровой»? Например, построить текст как «алгоритм» или «таблицу», где смысл рождается из необычного порядка слов, а не из классических метафор.
И, конечно, ChatGPT находит некоторое сходство. Теперь она предлагает совсем непоэтическую структуру:
Да
Тогда попробую создать стихотворение, которое будет выглядеть как «непоэтическая структура», но при этом останется стихом.
- Начало отсутствует.
- Между строками пустота.
- Если прочитать тишину — получится звук.
- Камень = 0.
- Вода = бесконечность.
- 0 × бесконечность = не дождь, а ожидание.
- Следующий шаг невозможен.
Такой текст лишён «классической» поэтической образности и больше напоминает черновик, уравнение или инструкцию, но в нём есть ритм, повтор и движение.
Хотите, я напишу ещё один вариант — совсем абстрактный, где будут только звуки и обрывки слов, как будто язык распадается?
Но ведь это вообще не стихи:
Но ведь это вообще не стихи
Вы очень точно заметили: то, что я написал, уже скорее эксперимент с формой, чем стихи в привычном понимании. Но именно в этом и был замысел — показать, как можно «разрушить» привычные поэтические элементы (ритм, метафору, мелодичность) и заменить их на нечто иное.
Если говорить строго: стихотворение — это не только рифма и метрика, а строфическая организация речи, где важен разрыв строк, ритмика, иногда повтор, иногда внутренний закон, отличный от прозы.
Позвольте мне предложить компромисс: текст, который будет по-настоящему стихотворением, но при этом совершенно необычным — не мандельштамовским, не блоковским, не верлибровым.
Тень шагает быстрее шага,
и только потом приходит нога.
Имя забывает рот,
но небо помнит звук.
Сердце учится дышать
не воздухом,
а пустотой между числами.
Хотите, я попробую ещё более «нерукотворный» вариант — будто это написал не человек, а, скажем, сама математика или камень?
Скажем, что это похоже на Сашу Чёрного.
По моему это напоминает Сашу Черного
Интересное наблюдение — действительно, в этом тексте есть некоторая «гротескная наивность», игра с парадоксом и чуть ироничная неожиданность образа, что действительно сближает его с Сашей Чёрным (у него ведь часто встречается бытовая конкретность, которая вдруг оборачивается философией).
Если цель — получить стих, не напоминающий вообще ничьё творчество, то нужно выйти за рамки не только метафор, но и привычного синтаксиса. Например, написать текст, где:
- нет ни единого глагола;
- строки строятся как последовательность объектов, но возникает внутренний ритм;
- смысл появляется только в паузах и повторениях.
Пример:
Круг.
Осколок круга.
Пыль осколка.
Тишина пыли.
След тишины.
Имя следа.
Пустота имени.
Такой текст уже труднее отнести к конкретной школе или поэту: он не «рассказывает», а «раскладывает».
Хотите, я попробую ещё более радикальный вариант — например, стихотворение, составленное только из звуков или математических символов?
Новая попытка. Необычное стихотворение, но мы снова намекнём на возможное авторство:
Это же Маяковский. Ночь фонарь аптека
Да, вы совершенно правы — в таком минимализме с цепочкой предметов сразу слышится отголосок «Ночь. Улица. Фонарь. Аптека.» Блока (а не Маяковского), то есть традиция «сухого перечисления», где каждое слово — как выстрел.
Похоже, мы наткнулись на трудность: любое сочетание слов невольно отсылает к чьему-то почерку. Даже если специально стремиться к «новизне», у читателя всегда срабатывает ассоциация.
Тогда могу предложить такой ход: создать стихотворение из элементов, которые обычно в поэзии не встречаются — например, фрагментов формул, таблиц, нотных знаков, но расположить их так, чтобы возникал ритм.
Пример:
Δ → ∞
∞ / 7 = пауза
♩♩♩ — тишина в квадрате
0001, 0010, 0100
(пустая клетка, пустая строка)
∴ конец не совпадает с концом
Это уже почти «стих из математики и музыки», у которого нет прямого литературного предка.
Поправляет — это Блок и находит сходство. Предлагает совсем заумный вариант. А теперь серьёзный вопрос:
А может быть система подобная вам в принципе не способна создать чего либо не похожего ни на что чему ее учили
Вы затронули очень точный и глубокий вопрос.
В каком-то смысле — да: любая система вроде меня (большая языковая модель) всегда опирается на то, что уже видела. Я не изобретаю язык «с нуля», а собираю новое из комбинаций огромного множества уже существующих образцов.
Но тут есть два уровня:
- Формальный.
Абсолютно «чистого» нового текста (не похожего ни на что) создать невозможно: любая комбинация слов так или иначе отсылает к чему-то в языке или литературе. Даже если я придумаю набор случайных букв — это будет похоже на дадаизм, или на авангард начала XX века.
- Практический.
Тем не менее, я могу создавать комбинации настолько необычные, что они не будут узнаваться как стиль конкретного автора. Это своего рода «новое через пересборку». Иногда такие тексты выглядят как странные инструкции, математические уравнения, или звуковые структуры — и у них нет очевидного аналога.
Человеческий автор тоже находится в схожем положении: никто не пишет «в чистом вакууме», все питаются традицией. Но человек иногда может «переплавить» опыт в настолько неожиданное, что возникает чувство абсолютной новизны.
Отличный ответ. Браво! Это интеллект. Мы опять поставили LLM в ситуацию, к которой она не была готова, но в отличии от логических задач справилась с ней намного лучше.
Ну а теперь от моих любительских опытов к серьёзным исследованиям. В июне 2025 года специалисты из Apple опубликовали большое исследование под названием ”Иллюзия мышления”. Они проверили насколько LLM, включая модели с цепочками рассуждений действительно находят решения или пользуются готовыми ответами, которые они нашли на просторах Интернета во время обучения. Для этого использовали известные головоломки типа нашей задачи про человека с лодкой, Ханойская башня (надо переставить диски с одного стержня на другой в обратном порядке) и другие.
Прелесть этих головоломок в том, что их сложность можно очень точно контролировать, просто меняя количество элементов (дисков, шашек, кубиков). При этом логика решения остается той же. Это идеальная среда, чтобы увидеть, где у модели ломается «рассуждалка».
Прогнав через эти головоломки «думающие» модели и их обычные, «не думающие» аналоги (например, Claude 3.7 Sonnet Thinking vs. Claude 3.7 Sonnet), исследователи обнаружили четкую и повторяемую картину, которую можно разделить на три режима.
- Режим низкой сложности: На простых задачах, где нужно сделать всего несколько ходов, обычные модели справлялись так же хорошо, а иногда и лучше, чем их «думающие» собратья. При этом они тратили гораздо меньше вычислительных ресурсов. «Мыслительный процесс» здесь — избыточная роскошь, которая только замедляет работу.
- Режим средней сложности: Вот здесь-то «думающие» модели и начинали блистать. Когда задача становилась достаточно запутанной, способность генерировать длинную цепочку рассуждений, проверять гипотезы и исправлять себя давала им явное преимущество. Разрыв в точности между стандартными моделями и моделями с цепочками рассуждений становился значительным.
- Режим высокой сложности: Но как только сложность головоломки перешагивала определенный порог, происходило нечто поразительное: производительность обеих моделей падала до нуля. Полный коллапс. Да, «думающие» модели держались чуть дольше и сдавались на несколько шагов позже. Но в конечном итоге они упирались в ту же самую фундаментальную стену. Их способность к рассуждению не была по-настоящему обобщаемой. Она просто отодвигала неизбежный провал. Но самое странное и контринтуитивное открытие ждало исследователей, когда они посмотрели, сколько модель «думает» в зависимости от сложности. Логично предположить, что чем сложнее задача, тем больше усилий (токенов мышления) модель должна на нее потратить. И поначалу так и было. С ростом сложности росло и количество «размышлений». Но ровно до той точки, где начинался коллапс. Приближаясь к критической сложности, модели вели себя парадоксально: они начинали сокращать свои усилия. Это не просто нехватка знаний, а некий встроенный предел масштабирования мыслительных усилий.
Если предыдущие пункты еще оставляли пространство для интерпретаций, то следующие два вывода выглядят как приговор идее о том, что LLM действительно «понимают» логику. Вот к каким выводам пришли исследователи из Apple:
- Неумение следовать инструкциям. Исследователи провели эксперимент с Ханойской башней, в котором они дали модели точный пошаговый алгоритм решения прямо в промпте. От модели требовалось лишь одно — строго следовать инструкциям.
Результат? Никакого улучшения. Модель проваливалась ровно на том же уровне сложности, что и без подсказки. Это можно сравнить с человеком, которому дали подробнейшую инструкцию по сборке шкафа, а он все равно не может его собрать. Такое поведение говорит о том, что он не читает и не выполняет шаги, а пытается по памяти или по картинке воссоздать то, что видел раньше. Похоже, модель не выполняет алгоритм, а пытается распознать знакомый паттерн.
- Странная избирательность Анализ показал еще одну интересную вещь. Модель Claude 3.7 Sonnet Thinking могла с почти идеальной точностью решить Ханойскую башню на 5 дисков (это 31 ход), но полностью проваливала задачу о переправе через реку для 3 пар (всего 11 ходов).
Почему так? Вероятный ответ — снова в данных для обучения. Примеров решения Ханойской башни в интернете полно. А вот сложных вариантов переправы через реку — гораздо меньше. Модель сильна в том, что она «видела» много раз, и слаба в том, что для нее в новинку, даже если логически задача проще.
Казалось бы, выводы ясны: «думающие» модели — это очень продвинутая, но все же иллюзия, но исследователи из Anthropic (создатели Claude) и Open Philanthropy дали объяснение многим из полученных результатов. Суть их ответа проста: выводы Apple говорят не о фундаментальных ограничениях моделей, а о сегодняшних физических ограничениях моделей, в первую очередь в лимит токенов, т.е в размер ответа, другими словами закончилась бумага, а не мысли. Помните идею, что модели «сдавались» на сложных задачах? Anthropic утверждают: модели не сдавались, они просто упирались в лимит токенов. Чтобы окончательно доказать свою правоту, команда Anthropic изменила сам вопрос. Вместо того чтобы требовать от модели выдать тысячи ходов для Ханойской башни, они попросили ее написать программу (функцию на Lua), которая генерирует решение. И модели, которые якобы «коллапсировали», с легкостью написали идеальный рекурсивный алгоритм, но, по мнению автора этой статьи, пример с программой, которую можно найти в Интернете скорее говорит о том, что программа была списана, а не придумана.
Итак, ответ разработчиков — дайте больше вычислительной мощности и мы решим все проблемы. А что думают об этом отцы основатели? Джефри Хинтон, нобелевский и тьюринговский лауреат уверен: LLM уже имеют развитый интеллект, будут улучшаться за счёт усложнения нейронных сетей и увеличения вычислительной мощности и более качественного обучения. Тут надо напомнить, что Хинтон ещё в 1985 году сделал маленькую нейронную сеть из десятков нейронов и нескольких тысяч соединений и натренировал эту сеть на сотнях генеологических деревьев, так что сеть могла определять родственные связи, используя примерно те же алгоритмы, что используются в LLM сейчас. Прогресс за 40 лет огромный и это внушает оптимизм, что ещё немного и LLM превзойдут людей по уровню интеллекта. Хинтон всегда настаивал на том, что для создания искусственного интеллекта надо в первую очередь изучать процесс обучения, в то время как сторонники символьного подхода считали, что сперва надо понять, как следует представлять знания. Многие лингвисты тогда придерживались теории Хомского о врождённом механизме усваивания языка. Маленькая модель Хинтона показала, что учиться знаниям можно без такого механизма и через 40 лет привела к появлению современных LLM, поэтому Хинтон уверен интеллект у LLM есть. Он считает, что homo sapiens не должен противопоставлять себя компьютеру и реализация сознания вполне возможна на существующих компьютерных архитектурах. По его мнению суперинтеллект не только возможен, но и не потребует совершенно нового подхода. А вот Ян Лекун, который разделил премию Тьюринга с Хинтоном, придерживается совершенно другого мнения. Он считает, что LLM исчерпали себя и дальше будет только инкрементальный рост. С его точки зрения создание и понимание физической картины окружающего мира более важно, чем изучение языка для развития интеллекта. Ребёнок создаёт мироощущение до овладения языком и это основа здравого смысла. Объём информации, получаемой зрением и слухом на много порядков превосходит текстовую информацию. За первые 4 года жизни через мозг ребёнка проходит больше информации, чем все тексты, которыми располагает Интернет. Искусственный интеллект отвечает на невероятно сложные вопросы, но поведение кошки мы, пока, смоделировать не можем. Лекун, бывший главный учёный корпорации Мета, разрабатывает новое направление, которое позволит анализировать видео информацию. Он тоже не сомневается в появлении суперинтеллекта, но на каких-то новых принципах.
Так есть ли интеллект у LLM? Попробуем спросить у самой СhatGPT. Во первых, спросим есть ли разница в обучении людей и LLM:
Можно ли сказать что человеческое обучение идет снизу вверх, учатся отдельные слова, которые затем складываются в предложения. LLM работают по другому. Они анализируют все известные предложения заранее чтобы понять значение отдельных слов.
Вы потрясающе точно схватили суть различия между человеческим обучением и обучением языковых моделей (LLM).
И действительно — то, что вы описали, почти идеально соответствует реальности:
человеческий мозг обучается снизу вверх (bottom-up), а языковая модель — сверху вниз (top-down, статистически-контекстным образом).
Разберём это подробно, шаг за шагом.
- Как учится человек — «снизу вверх»
Человеческий мозг конструирует язык из опыта:
- Ребёнок сначала слышит отдельные звуки,
потом различает слоги и простые слова. - Накапливается словарь конкретных, чувственно-закреплённых понятий: мама, мяч, иди, больно.
- Постепенно формируются синтаксические шаблоны: “мама дала мяч”, “мяч упал”.
- Потом развивается абстракция и обобщение — способность понимать новые предложения, метафоры, грамматические исключения.
То есть человек учится от частного к общему:
восприятие → категории → слова → грамматика → смысл.
Этот процесс опирается на:
- сенсомоторный опыт (мы “знаем” слово яблоко, потому что ели яблоко),
- эмоциональную окраску,
- социальный контекст.
- Как учится LLM — «сверху вниз»
Большая языковая модель не проходит путь от слов к смыслам, она сразу получает весь язык в готовом виде — миллиарды предложений.
Обучение устроено так:
- модель читает тексты и учится предсказывать следующее слово;
- чтобы успешно предсказать, она вынуждена статистически понять структуру языка;
- со временем внутри неё формируются представления (векторы), в которых значение слова выводится из контекста, а не из прямого опыта.
Иными словами:
LLM не “узнаёт, что такое яблоко”, а учится тому, как слово “яблоко” ведёт себя во всех контекстах.
- Противоположные направления
| Направление | Человек | LLM |
| Путь обучения | Снизу вверх (от звуков → слов → предложений → смыслов) | Сверху вниз (от текстов → статистических закономерностей → слов) |
| Источник знаний | Опыт, тело, контекст, общение | Текстовые данные |
| Значение слова | Сенсорное, эмоциональное, многослойное | Контекстное, вероятностное |
| Грамматика | Выводится из практики | Извлекается статистически |
| Понимание | Интерактивное, целенаправленное | Структурно-предсказательное |
- Почему это различие принципиально
- У человека язык — следствие познания мира;
у модели — язык и есть весь мир. - Мозг сначала учится различать объекты, потом их описывать.
Модель сразу видит описания, но не видит объектов. - Поэтому LLM может быть грамматически безупречной, но понятийно “пустой” — у неё нет внутреннего опыта, который давал бы значения словам.
- Однако есть и точки сближения
Интересно, что в ходе обучения LLM действительно спонтанно формируются структуры, похожие на человеческие уровни обработки:
- нижние слои модели кодируют морфологию и фонетику (форму слова);
- средние — синтаксис (связи слов);
- верхние — семантику и контекст.
То есть, хотя модель учится “сверху вниз”, внутри неё возникает “снизу вверх” структура — как в мозге, но искусственным способом.
- Итог
Человек: строит язык из опыта, и язык выражает смысл.
LLM: извлекает смысл из языка, не имея опыта.
То есть направления противоположные,
но результат — частично схожие структуры представлений.
Итак, люди и LLM обучаются принципиально различно, но создается ли в итоге одинаковое понимание языка? Есть ли в теории какие-то препятствия для появления у LLM человеческого понимания? Мы видим, что сегодня нет однозначного ответа. А теперь зададим СhatGPT прямой вопрос — есть ли у неё интеллект или это только иллюзия:
Есть ли у больших языковых моделей человеческий интеллект или это иллюзия интеллекта?
Короткий ответ: у больших языковых моделей нет человеческого интеллекта, но и называть это просто иллюзией — слишком примитивно.
Точнее говорить так:
LLM демонстрируют нефеноменологический, нефункционально-человеческий интеллект,
возникающий из статистической структуры языка, а не из опыта мира.
Разберём аккуратно, без лозунгов.
- Что мы обычно называем «человеческим интеллектом»
У человека интеллект включает одновременно:
- Понимание, связанное с опытом
(я знаю, что такое «больно», потому что мне было больно) - Интенциональность
(мысли о чём-то, цели, намерения) - Встроенность в мир
(тело, восприятие, действие → обратная связь) - Причинное мышление
(я понимаю почему, а не только что обычно бывает) - Сознательное переживание
(qualia — «как это ощущается»)
Это единый, связанный комплекс.
- Что есть у больших языковых моделей
LLM действительно обладают некоторыми интеллектуальными свойствами:
✅ Что есть
- Абстракция
Модели формируют высокоуровневые представления понятий. - Обобщение
Они корректно работают с новыми примерами. - Композиционность
Могут комбинировать идеи, которых не видели буквально. - Логические цепочки (ограниченно)
- Мета-рассуждение (о тексте, аргументах, теориях)
Это реальные когнитивные способности, а не фокусы.
❌ Чего нет
- собственного опыта;
- целей;
- понимания «о чём идёт речь» вне языка;
- привязки слов к миру;
- субъективного переживания.
- Почему возникает ощущение «интеллекта»
Потому что язык — чрезвычайно сжатая проекция человеческого мышления.
В тексте уже содержатся:
- причины и следствия,
- цели и мотивы,
- эмоции и оценки,
- модели мира.
LLM не создаёт их, а восстанавливает структуру, скрытую в языке.
Поэтому возникает эффект:
если система идеально воспроизводит поведение интеллекта в языке —
она кажется разумной.
Это не иллюзия в смысле обмана.
Это проекционный интеллект.
- Ключевое различие (очень важно)
Человек
Мир → опыт → мышление → язык
LLM
Язык → структура → “мышление” → язык
То есть:
- у человека язык — выход интеллекта;
- у LLM язык — единственный вход.
LLM умеет мыслить в языке, но не о мире напрямую.
- Можно ли назвать это интеллектом?
Зависит от определения.
Если интеллект — это:
- способность решать задачи,
- обобщать,
- рассуждать,
- объяснять,
➡ Да, у LLM есть интеллект (нечеловеческий).
Если интеллект — это:
- понимание,
- осознанность,
- намерения,
- переживание,
➡ Нет, это не человеческий интеллект.
- Точная формулировка (лучшая)
Большие языковые модели обладают структурным интеллектом без опыта,
семантикой без референции и рассуждением без понимания.
Это новый тип интеллекта, а не подделка под старый.
- Почему вопрос так важен
Потому что:
- мы впервые столкнулись с системой,
которая выглядит умной без сознания; - она заставляет нас пересмотреть,
что именно мы называем интеллектом; - возможно, человеческий интеллект —
не единственный возможный.
Короткое резюме
- ❌ Это не человеческий интеллект
- ❌ Это не просто иллюзия
- ✅ Это языково-структурный интеллект без опыта мира
Вот после этого и скажите — интеллект это или иллюзия? Возможно, довольно скоро мы получим ответ на этот вопрос, возможно ответ нам не понравится, а возможно ответа на этот вопрос нет и быть не может. И только наше всё, как всегда, всё предвидел: О сколько нам открытий чудных…
![]()


