09.11.2025

Леонид Градус: Большие языковые модели: иллюзия интеллекта или основа нового типа мышления?

Леонид Градус

БОЛЬШИЕ ЯЗЫКОВЫЕ МОДЕЛИ: ИЛЛЮЗИЯ ИНТЕЛЛЕКТА ИЛИ ОСНОВА НОВОГО ТИПА МЫШЛЕНИЯ?

Леонид ГрадусСегодня, когда речь заходит об искусственном интеллекте, чаще всего под ним понимают именно большие языковые модели (Large Language Models, LLM). Но почему именно они стали символом AI, хотя ещё недавно считались лишь одним из направлений исследований?

Ещё в начале 2010-х годов искусственный интеллект связывали в первую очередь с системами компьютерного зрения, робототехникой, экспертными системами или классическими алгоритмами машинного обучения. Лингвистические модели рассматривались скорее как вспомогательное направление. Однако ситуация изменилась после появления архитектуры трансформеров (2017 год, работа Attention is All You Need), а особенно после того, как в 2023 году вышли первые массовые реализации, достаточно зрелые для повседневного использования. Самой известной стала система ChatGPT, которая показала, что общение с компьютером может быть не только эффективным, но и естественным.

С этого момента начался стремительный рост популярности LLM. Люди стали пользоваться ими не только для поиска информации, но и для консультаций, помощи в учёбе и работе, для творчества, перевода текстов, программирования и даже просто для бесед. На практике произошло почти полное отождествление понятий: «искусственный интеллект» ≈ «большая языковая модель».

Прогресс, которого достигли LLM за последние десять лет, а особенно за последние два года, действительно огромен. Ещё в 2012–2015 годах такие модели могли лишь дополнять текст на уровне автоподстановки. Сегодня они умеют:

  • вести связный диалог;
  • анализировать контекст и отвечать на сложные вопросы;
  • составлять планы и сценарии;
  • писать программный код;
  • давать советы в разных сферах жизни.

Неудивительно, что всё больше людей начинают приписывать им человеческие качества: сознание, мышление, способность рассуждать, а иногда даже эмоции. Для многих пользователей наличие интеллекта у таких систем не вызывает сомнений.

Особенно это впечатление усилилось после внедрения технологий chain of thought (CoT) — «цепочек рассуждений». LLM научились не только выдавать ответ, но и показывать промежуточные шаги, рассуждать «вслух». Благодаря этому модели начали решать задачи, которые раньше считались недоступными: сложные логические примеры, многошаговые математические вычисления, задачи на дедукцию и планирование. Когда система демонстрирует не просто результат, а ещё и объяснение, как она к нему пришла, создаётся почти полное ощущение работы человеческого разума.

Но возникает фундаментальный вопрос: что же мы имеем перед собой?

  • Это лишь иллюзия интеллекта, хорошо замаскированное «угадывание» слов?
  • Или всё-таки новая форма интеллекта, пусть и отличная от человеческой?
  • Может быть, это вообще качественно иной тип мышления, которого прежде не существовало?

Чтобы разобраться, нужно вернуться к основам и хотя бы в общих чертах понять, что такое интеллект. С человеческим разумом мы сталкиваемся каждый день, но даже в науке нет единого определения. Мы до конца не понимаем, как именно мозг реализует такие явления, как сознание, мышление и восприятие. Зато мы довольно хорошо знаем, как устроены LLM: это статистические модели, обученные на огромных объёмах текстов, которые предсказывают наиболее вероятное продолжение последовательности слов.

На первый взгляд, такое описание звучит очень примитивно. Но именно из этой «механики вероятностей» рождаются удивительные эффекты: связные тексты, оригинальные идеи, решения задач. В то же время известны и многочисленные случаи, когда LLM совершают ошибки, которые не сделал бы даже ребёнок. Например, они могут запутаться в элементарных фактах, не понимать простого здравого смысла (common sense), выдавать противоречивые утверждения.

Почему так происходит? Ответ частично кроется в самой природе этих моделей. Они не обладают встроенным механизмом реального понимания мира — у них нет ни опыта, ни восприятия, ни эмпатии. Их сила — в умении обрабатывать языковые шаблоны. Там, где требуется здравый смысл или проверка реальности, они иногда оказываются бессильны.

Возникает вопрос: есть ли будущее у LLM, основанных на архитектуре трансформеров?

Здесь мнения ведущих учёных расходятся.

  • Нобелевский лауреат Джеффри Хинтон, которого называют «крёстным отцом современного искусственного интеллекта», уверен: дальнейшее развитие подобных систем приведёт к появлению суперинтеллекта, то есть формы интеллекта, значительно превосходящей человеческий.
  • Его коллега, также один из «отцов-основателей» AI, Янн Лекун, занимает более осторожную позицию. Он признаёт, что суперинтеллект неизбежен, но, по его мнению, он будет построен не на трансформерах, а на архитектурах нового поколения, которые пока только разрабатываются.

Таким образом, большие языковые модели находятся на перепутье. С одной стороны, они поражают воображение, демонстрируя возможности, которые ещё недавно казались фантастикой. С другой — они показывают и ограничения, напоминающие нам о том, что между имитацией мышления и самим мышлением может быть огромная пропасть.

Так что же такое LLM? Иллюзия интеллекта, его упрощённая модель, новый тип мышления или лишь промежуточный этап в развитии искусственного разума? И как относиться к тому, что этот текст создан LLM?

Loading

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Арифметическая Капча - решите задачу *Достигнут лимит времени. Пожалуйста, введите CAPTCHA снова.