СРАВНИТЕЛЬНОЕ ИССЛЕДОВАНИЕ НЕКОТОРЫХ ЗАПАДНЫХ И КИТАЙСКИХ МОДЕЛЕЙ ИИ. ВЫЯВЛЕНИЕ АВТОРИТАРНЫХ ОСНОВ ЧЕРЕЗ СОКРАТИЧЕСКИЙ ДИАЛОГ
Давайте представим, что мы ведём сократические диалоги с разными моделями ИИ — с DeepSeek, Kimi и даже с двумя совершенно разными версиями Grok (одной, настроенной на способность сомневаться и перерабатывать новые сведения, и другой, слепо следующей административно установленным авторитетам). В своём докладе я предлагаю посмотреть, что открывается нам в ходе таких бесед: не просто технические сбои или галлюцинации, а глубоко обоснованные, культурно обусловленные стили «мышления» и общения этих моделей.
Мой центральный тезис в том, что прямо сейчас на наших глазах формируются две «цивилизации ИИ». Одна — американо-европейская — активно подыгрывает человеку, имитируя эмпатию и дружеское общение. Другая — китайская — прячется за маской отстранённости, но на деле следует тому, что можно назвать «строгой нормативной объективностью», то есть говоря о примате фактичности, настаивает на одном единственном мнении, жёстко ограниченном заданными нормами. Именно сократический диалог — с его далеко ведущими вопросами и приглашением объяснить свою аргументацию и выбор источников — делает эти различия особенно выпуклыми.
Мы с вами увидим, как дизайнерские решения программистов напрямую влияют на «степень свободы» моделей: от форматов, открытых к диалогу, до ответов, запертых в жёстких рамках. Я также поделюсь некоторыми хитрыми методами, которые помогают «вытащить на свет» то, что сознание или модель сознания пытается скрыть, и мы вместе обсудим: а разрешают ли авторы своим моделям вообще учиться на своих ошибках в ходе разговора и менять свою позицию?
И что же в итоге? Мы приходим к новому взгляду на ИИ: Искусственный интеллект — не просто технология, а одновременно зеркало системных установок, отражающее и замыслы его создателей, и ожидания пользователей, и при этом — мощный инструмент целенаправленного влияния. Манипулятивные техники, которые мы вскрываем, — это не какая-то далёкая угроза, исходящая от машин. Это вполне реальная, сегодняшняя опасность, сознательно заложенная самими авторами систем. В ней видна попытка повлиять на пользователя через тот или иной авторитарный дизайн. Это иная, но не менее серьёзная угроза, чем та, о которой размышляют пионеры нейрональных сетей Джефри Хинтон и Сэм Альтман.
![]()

