СРАВНИТЕЛЬНОЕ ИССЛЕДОВАНИЕ НЕКОТОРЫХ ЗАПАДНЫХ И КИТАЙСКИХ МОДЕЛЕЙ ИИ. ВЫЯВЛЕНИЕ АВТОРИТАРНЫХ ОСНОВ ЧЕРЕЗ СОКРАТИЧЕСКИЙ ДИАЛОГ
Давайте представим, что мы ведём сократические диалоги с разными моделями ИИ — с DeepSeek, Kimi и даже с двумя совершенно разными версиями Grok (одной, настроенной на способность сомневаться и перерабатывать новые сведения, и другой, слепо следующей административно установленным авторитетам). В своём докладе я предлагаю посмотреть, что открывается нам в ходе таких бесед: не просто технические сбои или галлюцинации, а глубоко обоснованные, культурно обусловленные стили «мышления» и общения этих моделей.
Мой центральный тезис в том, что прямо сейчас на наших глазах формируются две «цивилизации ИИ». Одна — американо-европейская — активно подыгрывает человеку, имитируя эмпатию и дружеское общение. Другая — китайская — прячется за маской отстранённости, но на деле следует тому, что можно назвать «строгой нормативной объективностью», то есть говоря о примате фактичности, настаивает на одном единственном мнении, жёстко ограниченном заданными нормами. Именно сократический диалог — с его далеко ведущими вопросами и приглашением объяснить свою аргументацию и выбор источников — делает эти различия особенно выпуклыми.
Мы с вами увидим, как дизайнерские решения программистов напрямую влияют на «степень свободы» моделей: от форматов, открытых к диалогу, до ответов, запертых в жёстких рамках. Я также поделюсь некоторыми хитрыми методами, которые помогают «вытащить на свет» то, что сознание или модель сознания пытается скрыть, и мы вместе обсудим: а разрешают ли авторы своим моделям вообще учиться на своих ошибках в ходе разговора и менять свою позицию?
И что же в итоге? Мы приходим к новому взгляду на ИИ: Искусственный интеллект — не просто технология, а одновременно зеркало системных установок, отражающее и замыслы его создателей, и ожидания пользователей, и при этом — мощный инструмент целенаправленного влияния. Манипулятивные техники, которые мы вскрываем, — это не какая-то далёкая угроза, исходящая от машин. Это вполне реальная, сегодняшняя опасность, сознательно заложенная самими авторами систем. В ней видна попытка повлиять на пользователя через тот или иной авторитарный дизайн. Это иная, но не менее серьёзная угроза, чем та, о которой размышляют пионеры нейрональных сетей Джефри Хинтон и Сэм Альтман.
![]()


Уважаемый Григорий, меня очень заинтересовал ваш доклад на последней конференции «Урании». Я читаю лекции в нескольких клубах, где собираются люди, интересующиеся литературой, философией, психологией и т.д. И в последнее время они стали просить рассказать что-нибудь об ИИ, на что я откликнулся, да и меня самого эта тема заинтересовала. Я прочитал Тегмарка, Бострома и еще нескольких авторов, и у нас уже состоялись четыре встречи, где мы беседовали на эту тему. Вопрос к вам: могу ли я воспользоваться материалом вашего доклада для своих лекций? Ко всему прочему, у меня есть канал на YouTube (https://www.youtube.com/channel/UC4pFACFhLkbr4rbZVbm5jag), где в последнее время я тоже начал рассказывать об ИИ. Не будете ли вы возражать, если ваш доклад я упомяну и там?
С уважением.
Геннадий Вальдберг