Недаром в 2025 году крупные компании начали переосмысления роли искусственного интеллекта и его возможностей. Если 2023 и 2024 годы характеризовались эйфорией вокруг генеративных моделей, то 2025 год можно назвать годом попыток расширить внедрение ИИ для большего количества новых задач и соответственно оценить его эффективность.
ПРОБЛЕМЫ ВЗАИМОДЕЙСТВИЯ ЧЕЛОВЕКА И ГЕНЕРАТИВНОГО ИСКУСТВЕННОГО ИНТЕЛЛЕКТА
Аннотация

В статье рассматриваются особенности взаимоотношений Человека и Искусственного Интеллекта (ИИ), представляющие собой многогранную проблему, затрагивающую различные аспекты создания, развития и использования систем генеративного ИИ, а также возможности перехода, в их взаимоотношениях, от простых запросов (промптинга) пользователя на получение информации, до установления устойчивого партнёрства между Человеком и Искусственным Интеллектом. Для этого, предлагается использовать известный в системных исследованиях принцип «дихотомии пар». Дихотомия пары: «Человек и ИИ» является мощной концепцией для анализа и регулирования их взаимоотношений. При этом в будущем, вероятно, будут попытки создания симбиоза, который стремится объединить сильные стороны объектов, составляющих эту «пару». Чтобы сближение объектов, было успешным, продуктивным и не конфликтным, необходим двусторонний процесс адаптации.
Ключевые слова: Генеративный ИИ, Когнитивный искусственный интеллект, сравнение интеллекта человека и ИИ, партнерство человека и ИИ, дихотомии, «дихотомия пар».
- Введение
Существует мнение, что Искусственный Интеллект (далее сокращённо — ИИ) может оказать такое же фундаментальное влияние на жизнедеятельность человечества, как и общеизвестные исторические события: появление письменности, промышленная революция, освоение атомной энергии, освоение космоса, использование Интернета и др.
Однако, в отличие от прошлых революций, которые открывали новые формы человеческого общения, механизировали труд, открывали новые источники энергии и соединяли мир, ИИ автоматизирует сложные задачи и способствует принятию решений на основе множества известных данных, оказывает влияние на широкий спектр различных отраслей жизнедеятельности и ставит новые этические и регуляторные вопросы.
Подобно тому, как письменность расширила память и возможности для передачи знаний, а интернет — возможности для общения, ИИ расширяет когнитивные способности человека. Он помогает анализировать огромные объёмы данных, прогнозировать результаты и автоматизировать сложные задачи, которые ранее были исключительно прерогативой человеческой деятельности.
Сэм Альтман — один из главных идеологов создания систем ИИ заявил в недавнем интервью:
«Настоящая … значимость ИИ будут получена от открытия новых научных знаний, лечения болезней, разработки дешевой энергии и лицензирования этих технологий.
Его главная цель — сделать высококачественный супер интеллект легкодоступным, интегрированным и невероятно дешевым для каждого человека».
Необходимость обсуждения коммуникации Человека с системами генеративного Искусственного Интеллекта — ИИ (англ., artificial intelligence — AI) и возможности установления «партнерских отношений» между ними, может вызывать некоторое недоумение. Действительно, какие могут быть партнерские взаимоотношения между живым существом — Человеком и Искусственным Интеллектом, являющимся нематериальным информационным объектом, созданным Человеком в виде программ, реализуемых с помощью компьютерных технологий? Однако, жизнедеятельность человечества свидетельствует о том, что в настоящее время эта проблема приобрела весьма важное значение и её необходимо безотлагательно решать. Причина простая: во всех сферах нашей жизнедеятельности, начиная с в 20-х годов ХХI века, практически проникли системы Искусственного Интеллекта, которые обеспечивают быстрый рост производства, внедрение инноваций, изменения в образовательной системе, социальной сфере и многое другое. Это четко прослеживается по высокому уровню инвестиций и росту капитализации компаний, занимающихся разработкой и эффективным использованием систем ИИ. В неэффективные компании, жизненный цикл которых быстро заканчивается, никто не вкладывает многомиллиардные инвестиции.
В TOP-10 наиболее мощных и развитых технологических компаний мира находятся фирмы, разрабатывающие различные системы (модели) Искусственного Интеллекта и технологическое обеспечение к ним. Это подтверждается объёмом инвестиций, вложенных в их деятельность (см. табл.1):
| Наименование компаний | Объем инвестиций в 2025 г. (трлн. долл.) |
| Apple | 3,555 (трлн. долл.) |
| NVIDIA | 3,340 (трлн. долл.) |
| Microsoft | 3,115 (трлн. долл.) |
| Alphabet | 2,364 (трлн. долл.) |
Табл. 1.
Нам и нашим потомкам придется во многих сферах жизнеобеспечения, сейчас и в ближайшем будущем, постоянно взаимодействовать с системами, обладающими Искусственным Интеллектом. В какой это будет реалии — пока нам неизвестно. Сегодня это системы ИИ, установленные на современных и квантовых компьютерах, а что будет завтра…, этого никто не знает. Возможно, это будет массовый наплыв роботов, а может быть, как говорят фантасты, это будут какие-то «гуманоиды». Пока это происходит в различных формах коммуникаций Человека и существующих моделей ИИ.
Если в предыдущие годы основное внимание разработчики ИИ уделяли программным, техническим и технологически вопросам, то сегодня проблемы коммуникации Человека и ИИ становятся более, чем актуальными, особенно во взаимодействии с системами генеративного ИИ.
- Фундаментальное влияние ИИ на изменения жизнедеятельности Человека
Наиболее часто, на различных этапах жизнедеятельности, люди обращаются к генеративным системам ИИ, потому что, они наиболее доступны для создания нового и оригинального контента (текст, изображения, музыка). Системы открыты для пользователей в бесплатном и платном вариантах. Среди них наиболее популярными являются системы: ChatGPT, Claude, Grok, Gemini, Sider, Copy.ai и др.
2.1 Генеративные ИИ обладают следующими возможностями:
- Обучение. Система может учиться на основе новых данных и опыта.
- Рассуждение. Способность ИИ решать задачи и делать выводы.
- Восприятие. Возможность обрабатывать и интерпретировать данные среды.
- Принятие решений. ИИ может оценивать и предлагать варианты решений.
- Обработка естественного языка. Способность понимать, и генерировать человеческий язык.
- Генерация. На основе полученных знаний, ИИ может создавать новый контент.
- Взаимодействие. Для создания контента ИИ получает запрос от пользователя на естественном языке и генерирует ответ, соответствующий этому запросу.
2.2. Генеративные ИИ вызывают перемены в жизнедеятельности Человека.
2.2.1. Расширение человеческих возможностей, например:
- Промышленная революция механизировала труд, ИИ расширяет когнитивные возможности человека при решении сложных жизненных задач.
- Интернет-революция соединила мир, ИИ автоматизирует информационные процессы и персонализирует человеческий опыт.
- Революция мобильной связи расширила возможности коммуникации между людьми, ИИ персонализировала мобильные возможности человека.
- Создание систем ИИ изменило традиционные представления об интеллекте, расширяя когнитивные способности человека.
- Использование систем ИИ влияет на занятость, стимулируя появление новых профессий и трансформацию рабочих мест.
- Использование систем ИИ ускоряет инновации, позволяя быстро создавать прототипы и экспериментировать на основе данных.
- Использование систем ИИ вызвало изменения в важнейших сторонах жизнедеятельности человека: здравоохранении, финансах, транспорте и др.
2.2.2. Влияние на трансформацию общества: как и другие революционные технологии, ИИ не просто является новым инструментом, но и ведёт к глубоким социальным преобразованиям и информатизации общества. При этом, имеются потенциальные риски: подобно атомной энергии, ИИ несёт в себе как огромные преимущества, так и значительные недостатки. Существуют опасения потери контроля над системами ИИ, потери рабочих мест и возможности использования технологии для социальных манипуляций.
2.2.3. Повышение скорости и масштаба человеческой деятельности: развитие ИИ происходит с беспрецедентной скоростью, и его влияние широко распространяется на все аспекты жизни — от повседневных задач до глобальной экономики.
2.2.4. Изменение процесса человеческого мышления: в отличие от других технологий, которые изменяли способы взаимодействия с миром, ИИ влияет на процессы мышления, способы анализа и принятия решений. Постоянное общения с ИИ может привести к изменениям в процессах нейропластичности головного мозга, поскольку задачи, требующие критического мышления, всё чаще делегируются машинам.
- Данные об использовании ИИ в различных сферах жизнедеятельности человека.
В таблице 2 приведены данные о степени использования генеративного ИИ в различных сферах жизнедеятельности человека (кроме военных сфер).
| №№ | Сферы использования ИИ | % использования ИИ |
| 1 | Разработка программного, технического и технологического обеспечения |
35.9 |
| 2 | Образование, преподавание | 12.4 |
| 3 | Искусство, дизайн, развлечения, СМИ | 8.25 |
| 4 | Офисная, административная поддержка | 8.15 |
| 5 | Научные исследования | 7.18 |
| 6 | Бизнес, финансовые операции | 3.03 |
| 7 | Менеджмент и управление | 2.60 |
| 8 | Здравоохранение | 2.53 |
| 9 | Продажа и сопутствующие товары | 2.42 |
| 10 | Архитектура и инженерия | 2.29 |
| 11 | Общественные и социальные службы | 1.97 |
| 12 | Производство | 1.60 |
| 13 | Юристы | 0.60 |
| 14 | Личный уход и обслуживание | 0.61 |
| 15 | Установка, обслуживание и ремонт | 0.52 |
| 16 | Рестораны и кафе | 0.36 |
| 17 | Сельское хозяйство | 0.34 |
| 18 | Медицинские ассистенты | 0.23 |
| 19 | Строительство и добыча | 0.18 |
| 20 | Транспорт | 0.16 |
| 21 | Охранная служба | 0.22 |
Табл. 2.
Анализ данных, приведенных в таблице 2, показывает, что использование ИИ профессиональными специалистами, занятыми созданием, поддержкой и использованием программного, технического и технологического обеспечения ИИ, составляет до 40% от общего количества людей, пользующихся ИИ, а остальные 60% — это запросы обыкновенных непрофессиональных пользователей (подписчиков), применяющих генеративные ИИ в своей деятельности или в личных целях. При этом, процент использование ИИ в других сферах жизнедеятельности невысокий. Это происходит из-за того, что непрофессиональные пользователи практически не имеют представления о структуре, особенностях, возможностях и проблемах используемых систем ИИ.
Несмотря на это, по утверждению Сэма Альтмана, генеративная система ChatGPT Plus насчитывает более 800 миллионов активных пользователей в неделю. По его прогнозам, к концу 2025 года пользовательская база ChatGPT должна достигнуть 1 (одного) миллиарда человек, что отражает стремительный рост и широкое распространение сервиса с момента его запуска. Известно, что статистика часто меняется. Ниже приведены актуальные данные по основным платформам только за 2024 ÷ первую половину 2025 года:
- ChatGPT (OpenAI): число еженедельно активных пользователей превысило 800 миллионов, что составляет около 10% взрослого населения мира.
- Gemini (Google): охватывает около 400–450 миллионов пользователей в месяц.
- Claude (Anthropic): охватывает от 20 до 35 миллионов пользователей в месяц.
- Grok (xAI): охватывает около 64 миллионов пользователей в месяц.
С одной стороны, подавляющее большинство пользователей достаточно активно обращаются к ИИ, и даже платят за них, что свидетельствует о высоком уровне общей заинтересованности, несмотря на существующие технологические и этические проблемы.
С другой стороны, разработчики генеративных ИИ, к сожалению, проявляя высокий профессионализм при создании программного и технологического обеспечения систем ИИ, практически не уделяют внимания технологиям коммуникаций Человека–пользователя с ИИ. Только в последнее время, начиная с 2025 года, эта проблема стала предметом внимания экспертов, занимающихся исследованием эффективности и безопасности использования ИИ.
Одна из основных проблем коммуникации пользователей и ИИ заключается в том, что пользователи, обращающиеся к генеративным системам ИИ, действуют в режиме «вопрос — ответ» (т.е., промптинга). В результате, они получают, в ответ на свои запросы, минимальный и не всегда исчерпывающий объем информации, практически мало чем отличающийся от результатов, получаемых при использовании поисковых систем типа Google, Яндекс и др.
- Причины, затрудняющие коммуникации Человека и ИИ
Проблемы, возникающие в процессе коммуникаций Человека и ИИ, охватывают широкий спектр задач и сложных вопросов. Многие из них затрагивают глубокие и порой запутанные реалии, возникающие как в процессе коммуникации с ИИ, так и на стадии разработки систем. Решение ряда этих проблем возможно ь при изменении формы и характер их коммуникации. Это требует проведения исследований и решения ряда вопросов теоретического и практического характера.
Для создания нормальных коммуникаций непрофессионального пользователя с ИИ, необходимо оценить влияния различных систем ИИ на восприятие их человеком. Эти подходы трудно реализовать из-за огромной сложности реальных областей применения ИИ и вариантов их реализации. Однако, расширенная реальность открывает новые возможности для исследования коммуникаций человека и ИИ.
Поскольку системы ИИ используются в различных сферах жизнедеятельности Человека, то термин «Искусственный Интеллект», безусловно, заранее вызывает далеко идущие ожидания у многих пользователей, не являющихся экспертами в конкретной области ИИ или в компьютерной науке в целом. Кроме того, восприятие и представление об ИИ основными средствами массовой информации, фантастическими фильмами и сериалами, художественными произведениями и т.д., способствовали формированию неправильного представления о возможностях ИИ. Это общественное непонимание часто формирует искаженное изображение принципов, потенциальных возможностей и рисков ИИ. Аналогичное восприятие можно было наблюдать в прошлом, при внедрениях различных новых информационных приложений, например, таких как Интернет.
При таком «человеко-компьютерном взаимном взаимодействии» крайне важно исследовать и учитывать, как понимает и воспринимает пользователь ту ИИ — систему, с которой он коммуницирует, а также, как сама система ИИ откликается на обращение Человека к ней.
Большинство существующих систем ИИ должны, в процессе разработки, включать в себя интерфейс типа «человек-машина». Здесь под интерфейсом понимается форма и содержание информационного пространство, в котором происходит коммуникация, включая все аппаратные и программные компоненты, а также базовые концепции, методы, формы и стили взаимодействия.
Таким образом, приложения ИИ станут более интерактивными, что приведёт к вопросу о том, как пользователи смогут понимать индивидуальные различия во взаимодействиях человека и ИИ, а также оценить и использовать влияние различных особенностей и ограничений, заложенных в принципы построения структуры и программного обеспечения ИИ, влияющие на взаимодействие с ним.
Хотя исследователями и разработчиками ИИ декларируется, что в основу создания ИИ заложены структура и принципы функционирования человеческого мозга, на практике это далеко не соответствует реалиям, так как известно, что в настоящее время степень изученности работы человеческого мозга не превышает 20%.
Поэтому, в отличии возможностей исследования и регулирования коммуникаций между людьми, при анализе процесса коммуникаций человека с ИИ мы сталкиваемся с «подобием коммуникаций», то есть, с проблемой «неопределенности поведения» искусственного интеллекта.
- Отношение пользователей к результатам коммуникаций с ИИ
На данный момент сложно назвать точные цифры, так как отношение пользователей к результатам общения с ИИ постоянно меняется, по мере развития технологий ИИ, и зависит от контекста использования (например, профессиональные задачи, развлечения, бытовые вопросы, поддержка клиентов).
Однако различные исследования показывают, что мнения сильно разнятся, и существует как доля положительных оценок, так и серьезные претензии. Несмотря на то, что конкретные данные, относящиеся исключительно к результатам общения, варьируются, можно выделить общие тенденции:
- Положительное отношение. Многие пользователи признают эффективность ИИ. Например, в одном из опросов 83% респондентов отметили повышение производительности благодаря ИИ, а 59% — благодаря креативности. Это говорит о том, что во многих случаях ИИ успешно справляется с поставленными задачами.
- Отрицательное отношение или скептицизм. 53% взрослых американцев считают, что ИИ в целом ухудшит способность людей мыслить творчески и строить значимые отношения, что отражает опасения относительно качества взаимодействия с ИИ.
Отрицательное отношение и недовольство результатами общения с ИИ чаще всего вызваны следующими факторами:
- Отсутствие у систем ИИ эмоциональных проявлений интеллекта и эмпатии. Искусственный Интеллект практически неспособен эффективно понимать и передавать эмоции, что делает общение безличным, холодным и лишенным эмпатии, особенно в деликатных или сложных проблемах и ситуациях.
- Восприятие ИИ как постороннего, «не сотрудничающего» коллеги. Если пользователь чувствует, что Искусственный Интеллект использует алгоритмизированные, стандартные ответы, он может воспринимать его как менее склонного к сотрудничеству или вовлечению в диалог, что снижает удовлетворенность общением.
- Неточности и дезинформация в результате общения с ИИ. Искусственный Интеллект иногда выдаёт неверную или выдуманную информацию, что подрывает доверие к результатам общения, особенно если они используются для принятия важных решений.
- Проблемы безопасности и конфиденциальности данных. У пользователей есть опасения, связанные с тем, как Искусственный Интеллект обрабатывает и хранит их персональные данные, что может создавать барьер для открытого и доверительного общения.
- Однообразие и предсказуемость ответов, полученных от ИИ. Иногда ответы, генерируемые Искусственным Интеллектом, бывают монотонными или слишком формальными, что снижает эффективность взаимодействия.
- Непонимание Искусственным Интеллектом контекста или нюансов. Несмотря на постоянные обновления, выполняемые разработчиками систем, Искусственный Интеллект иногда ошибается в интерпретации сложного контекста, иронии, сарказма или культурных нюансов, что приводит к нерелевантным или неуместным ответам.
- Технические сбои и ограничения. Сбои в работе систем, задержки в ответах или внезапные обрывы общения также вызывают негативные эмоции у пользователей.
Положительное отношение преобладает там, где ИИ решает конкретные, утилитарные задачи (поиск информации, черновики текстов и др.). Отрицательное отношение к ИИ проявляется, когда общение человека и ИИ касается проблем, требующих от ИИ проявления человеческих качеств, таких как анализ ситуаций, проявление эмпатии, глубокое понимание и креативность сущности вопросов и бесед, т.е. того, чем существующие системы генеративного ИИ пока не обладают.
Сложность реализации взаимодействия также возникает из-за множества вариантов применения и воплощений ИИ в реальности. Подобно проблемам, возникающим во взаимоотношениях «человека с человеком», т.е. межличностным отношениям, интерактивные ИИ, используемые в настоящее время, создают значительные проблемы в процессе систематических коммуникаций с Человеком, например: отказы в сотрудничестве по сложным запросам, намеренный обман, частичное сокрытие информации, приспособление к точке зрения второго участника общения и др.
Все это требует другого подхода к взаимодействию между людьми и ИИ, т.е. перехода от технологии «промптинга к принципиально другим формам и методам коммуникаций. Для того, должны быть сделаны «шаги» с двух сторон:
— Человек должен понимать, и научится воспринимать Искусственный интеллект как равного ему субъекта, обладающим возможностями и знаниями, которые у него отсутствуют;
— Разработчики ИИ должны решать технологические и другие проблемы, которые мешают нормальной коммуникации Человека и ИИ.
Вышеизложенное свидетельствует о том, что для получения эффективных результатов от коммуникации Человека и Искусственного интеллекта необходимо перейти от использования промптинга к другим формам общения между ними.
- Необходимость перехода от промптинга к партнерству
в процессе коммуникации Человека и ИИ
Поскольку известно, что в настоящее время пользователи, обращающиеся к генеративным системам ИИ, действуют, как правило, в режиме промптинга, задавая отдельные вопросы и получая ответы, содержащие минимальный объем информации. От качества промпта, то есть правильно составленного запроса, зависит результат коммуникации человека с ИИ. Умение правильно формулировать запросы и адекватно реагировать на ответы ИИ, добиваясь положительного результата, — это процесс требующий от пользователя определенной квалификации, нормального культурного уровня, терпения и затраты достаточного времени на подготовку и проведение опроса. Эти качества у различных категорий пользователей ИИ практически отсутствуют, что и приводит к затруднениям, приведенным выше.
Вместе с тем, в науке и обычной жизнедеятельности давно известен другой способ коммуникаций между различными субъектами в форме партнерства, т.е. равноправного, уважительного и доверительного взаимодействия, основанного на общих целях, взаимной поддержке, честных взаимоотношениях и разделении ответственности. При этом каждый участник коммуникаций сохраняет свою индивидуальность и вносит свой вклад в общее дело и развитие. Это не иерархические отношения, а союз, в котором участники слушают друг друга, идут на компромиссы, стремятся к гармонии и достижению общего результата.
- Что необходимо для перехода Человека и ИИ
в коммуникационный режим Партнерства?
Для достижения эффективного «сближения» (снижения разобщенности и повышения уровня партнерства), требуются параллельные усилия с обеих сторон: как со стороны человека, так и со стороны разработчиков ИИ-технологий, с учетом особенностей взаимоотношений Человека и ИИ.
Проблемы, возникающих в процессе коммуникаций Человека и ИИ, зависят как от разной природы этих объектов, так и от формы и характера их взаимоотношений. Это требует исследования и выявления причин, затрудняющих коммуникации. Насколько это возможно в случае коммуникаций между объектами различной природы — это вопрос, требующий тщательных исследований и разработки.
7.1. Особенности взаимоотношений Человека и ИИ
- Проблема теории разума. У людей есть способность понимать, что другие имеют свои убеждения, желания и намерения, отличные от наших собственных. Это называется «теорией разума». ИИ пока не демонстрирует подлинного понимания ментальных состояний. Он может имитировать такое понимание, но неясно, действительно ли он «понимает», что у человека есть внутренний мир, отличный от его собственных вычислительных процессов.
- Языковые и семантические барьеры. Язык человека насыщен метафорами, идиомами, культурными отсылками. Значения слов зависят от контекста, личного опыта, эмоционального состояния. ИИ может обрабатывать язык статистически, но часто упускает глубинные смысловые связи, которые для человека очевидны. Это создает ситуации, когда стороны говорят на одном языке, но понимают разное.
- Проблема доверия и предсказуемости. Для эффективного когнитивного общения необходимо понимание того, как мыслит партнер по коммуникации. Люди строят ментальные модели друг друга, что позволяет предсказывать реакции и адаптировать общение. С ИИ такое моделирование затруднено из-за непрозрачности его «мыслительных» процессов. Человек не может интуитивно понять логику ИИ, что снижает эффективность взаимодействия.
- Временные и адаптивные различия. Человеческое познание динамично и постоянно эволюционирует под влиянием опыта, настроения, физического состояния. ИИ-системы более статичны между обновлениями. Это создает проблему десинхронизации: как поддерживать эффективное общение, когда одна сторона постоянно меняется, а другая остается относительно неизменной.
- Асимметрия в обучении и адаптации. Человеческое обучение происходит через личный опыт, эмоции, социальное взаимодействие. Мы формируем ментальные модели других людей, предсказывая их поведение на основе понимания их мотивов и характера. ИИ обучается на больших объемах данных, но не имеет личного опыта взаимодействия. Это создает проблему: как ИИ может эффективно моделировать человеческое мышление, не имея субъективного опыта.
- Различие в технологических возможностях: множество разнообразных возможностей ИИ создает уникальную ситуацию: ИИ превосходит человека в обработке больших объемов информации и выполнении специализированных задач, но не обладает общим интеллектом и пониманием контекста на человеческом уровне. Это порождает вопросы о том, как правильно распределить роли во взаимоотношениях между человеком и ИИ.
- Разделение ответственности за полученный результат: проблема заключается в определении того, кто несет ответственность за решения, принимаемые с помощью ИИ. Когда система ИИ предлагает или принимает решения, влияющие на жизни людей: в медицине, правосудии, управлении транспортом и других сферах жизнедеятельности, возникают вопросы ответственности за полученный результат.
- Возникновение социально-экономических последствий: использование возможностей ИИ меняет рынок труда, создавая новые профессии и делая устаревшими другие. Это требует переосмысления структуры и содержания социальных систем и методологии образования. Возникает риск усиления неравенства между теми, кто имеет доступ к передовым технологиям ИИ, и теми, кто его не имеет.
- Необходимость соблюдения контроля за автономностью ИИ: по мере развития систем ИИ, возникает необходимость сохранения человеческого контроля над технологиями, используемыми при их создании. Необходимо обеспечить, чтобы ИИ оставался объектом, используемым для достижения поставленным целей, поставленных Человеком, а не становился независимым «актором» с собственной логикой действий и своими целями.
- Различие в процессах познания: человеческое познание, основанное на биологических нейронных сетях, формировавшихся миллионы лет в процессе эволюции. Процессы познания, характерного для ИИ и являющегося результатом обучения, использующего математические и статистические модели, лишенные субъективного опыта. Эта фундаментальная разница создает барьер в понимании того, как каждая сторона «мыслит».
- Наличие проблем непонимания контекста: люди естественным образом в процессе общения интерпретируют огромное количество неявного контекста в свое понимание взаимоотношений. При этом учитывается тон голоса, жесты, культурные нормы и многое другое. ИИ при общении с человеком интерпретирует информацию более буквально. Это приводит к недопониманию в процессе взаимодействия, когда человек предполагает, что ИИ «понимает» подтекст, но система этого не умеет делать.
- Отсутствие эмоциональной составляющей в процессе общения: общение между людьми бывает глубоко эмоциональным. Эмоции влияют на восприятие, память, принятие решений и т.д. Система ИИ может распознавать и имитировать эмоции, но не может их испытывать при общении с человеком. Это создает дисбаланс в общении, где одна сторона эмоционально вовлечена, а другая, в лучшем случае, лишь моделирует эмоциональные реакции и ряд других проблем.
- Влияние психологических проблем: многие люди склонны воспринимать системы ИИ, приписывая им человеческие качества и намерения. Это может приводить людей как к чрезмерному доверию к этим системам и формированию новых социальных навыков, так и к необоснованным страхам и разочарованиям в результатах общения с ним.
- Различное философское осмысление общения: развитие ИИ может влиять на людей, заставляя их пересматривать свои представления о познании природы интеллекта, сознания и уникальности человека. Это может отрицательно влиять на человеческую идентичность в том случае, если ИИ сможет превзойти человека в решении когнитивных задач.
7.2. Необходимость подготовки и обучения людей
Для успешного партнерства с ИИ людям требуется не просто умение нажимать на кнопки клавиатуры компьютера и задавать отдельные вопросы, а новое понимание ролей и ответственности пользователя, а именно:
- Цифровая и ИИ-грамотность человека: Люди должны понимать базовые принципы работы ИИ, его сильные и слабые стороны, понимать, когда системе нельзя доверять безоговорочно и др.
- Новые навыки сотрудничества: требуется обучение навыкам эффективного взаимодействия, управления ИИ-инструментами, правильной формулировки запросов и четкой постановки задач для ИИ (так называемый prompt engineering).
- Психологическая адаптация: необходимо готовить людей к изменению рабочих процессов, к тому, что часть задач будет автоматизирована, и к необходимости доверять «мнению» ИИ в критически важных областях (например, при решении производственных и личностных проблем, постановке диагнозов в медицине или при управлении транспортом).
- Этические рамки: обучение ответственному использованию ИИ и пониманию этических последствий решений, принимаемых пользователями после общения с ИИ.
7.3. Необходимость совершенствования технологий ИИ
«Партнерство» не может быть односторонним. ИИ должен стать более «человеко-ориентированным». Для этого необходимо:
- Улучшение естественного общения: алгоритмы должны лучше понимать нюансы человеческого языка, контекст, эмоции, сарказм и нечеткие запросы. Это сделает взаимодействие менее роботизированным и более интуитивным.
- Развитие объяснимого ИИ: системы должны не просто давать ответ, но и уметь понятно объяснять человеку логику своего решения. Это критически важно для построения доверия и эффективного партнерства.
- Адаптивность ИИ к человеку: ИИ должен уметь подстраиваться под индивидуальный стиль работы, уровень знаний и предпочтения конкретного пользователя, воспринимать проявление эмпатий пользователя, а не заставлять человека адаптироваться под технологии, заложенные в ИИ.
- Повышение надежности и безопасности: сокращение количества ошибок и обеспечение безопасности использования данных, представляемых пользователем.
Недаром в 2025 году крупные компании начали переосмысления роли искусственного интеллекта и его возможностей. Если 2023 и 2024 годы характеризовались эйфорией вокруг генеративных моделей, то 2025 год можно назвать годом попыток расширить внедрение ИИ для большего количества новых задач и соответственно оценить его эффективность. Компания Google, OpenAI, Microsoft, Perplexity, Anthropic, Mistral AI, xAI и другие, начали исследовать различные возможности ИИ, кроме генерации текста, изображений и видео. Появились браузеры со встроенным искусственным интеллектом, агентские возможности, а также модели мышления, способные выполнять более сложные задачи и имитировать ход мыслей. Если 2024 г. был годом «чат-ботов», то 2025-й стал годом «механизма рассуждения» (Reasoning Engine). Разработчики ИИ коллективно перешли к моделям, способным к режиму обработки данных, что предполагает сознательные, последовательные цепочки рассуждений перед генерацией окончательного ответа пользователю. Модели o1 и o3 от OpenAI показали способность «думать» в течение определённого времени для решения сложных математических задач и программирования. Это изменение было не просто очередным обновлением, а фундаментальным изменением того, как модели учатся для удовлетворения запросов пользователей.
Одним из показательных примеров в стремлении разработчиков перейти к смене роли систем ИИ, которая заключалась в переходе от простых ответов на загружаемые запросы пользователей (т.е., промптинга), явилась возможность «думать» в сочетании с высокой производительностью различных моделей. Для этого, в августе 2025 г. была выпущена модель GPT-5 от OpenAI. Однако её запуск оказался отрицательным примером в сфере пользовательской психологии и соответствия выпущенного продукта запросам рынка ИИ. Модель показала лучшую производительность по сравнению с популярной моделью GPT-4o, соединив для пользователя возможности «мышления» и стандартную функциональность в едином интерфейсе. Однако, релиз модели был испорчен отрицательной реакцией пользователей.
Суть проблемы заключалась в «личности» новой модели и стратегии ее развертывания компанией. Компания OpenAI принудительно перевела пользователей с GPT-4o на GPT-5. Постоянные пользователи, у которых сформировалась определенная психологическая связь с более «теплой», более дружественной и разговорной GPT-4o, назвали GPT-5 «отстраненной и холодной». Этот пример показал, что когда ИИ становится частью повседневной жизни, его полезность определяется не только возможностями обработки больших объёмов информации, но и проявлением черт эмоционального интеллекта.
Пользователи GPT-5 сообщали, что чувствуют себя «опустошенными» из-за потери конкретного персонажа (к которому они привыкли). Поэтому они воспринимали новую модель скорее как инструмент, а не как партнера по выполняемой работе. То есть для многих пользователей интерфейсом GPT-4o, эта модель ИИ, воспринималась как личность, с которой они общаются, и радикальные изменения в ней ассоциировались как разрыв взаимоотношений со стоны ИИ.
Постоянные пользователи ИИ-модели Claude Opus 4.5 утверждают, что на нее можно положиться, в том числе при разработке серьезных проектов. Правда, они замечают, что модели нужно в процессе общения «всё разжевать».
Предложение «разжевать» — именно и является той «аналитикой», которая происходит в процессе партнерских отношений, что позволяет пользователю приходить к каким-то выводам или принимать решения, в отличии от «промптинга» с бесконечными вопросами.
- Партнерство, как эффективный способ коммуникаций Человека и ИИ
Партнерство — это союз, основанный на равноправии, взаимном уважении, общих целях и поддержке, где партнеры совместно делят ответственность, принимают решения и развиваются, а не подчиняются друг другу. Это договоренность о сотрудничестве, где важен вклад каждого для достижения общего блага и гармонии, в противовес традиционным иерархичным ролям «старший-младший».
В целом, партнерство — это сознательный выбор работать вместе как команда для создания крепкой, гармоничной и развивающейся связи.
8.1. Основные черты и характеристики партнерских отношений между различными субъектам:
- Добровольность: взаимодействие основывается на свободном волеизъявлении сторон без принуждения.
- Общность целей: наличие единой миссии или конкретных задач, которые выгоднее решать совместно, чем поодиночке.
- Равноправие: субъекты признают автономию друг друга; отношения строятся на горизонтальных связях, а не на иерархии (даже при разном масштабе ресурсов).
- Взаимовыгода (Вин-вин): ориентация на получение пользы всеми участниками процесса.
- Разделение рисков и ответственности: партнеры совместно несут обязательства за результаты деятельности и возможные потери.
- Доверие и прозрачность: обмен необходимой информацией, открытость намерений и соблюдение этических норм.
- Долгосрочный характер: в отличие от разовых контактов, партнерство чаще предполагает устойчивую связь, направленную на перспективу.
- Ресурсный обмен: объединение различных активов: финансов, знаний, технологий, репутации или административного ресурса.
8.2. Основные различия между промптингом и партнерством
Партнерские отношения и промптинг (взаимодействие с ИИ через запросы) — это принципиально разные модели коммуникации, хотя современный «партнерский промптинг» года стремится их сблизить. Основные отличия заключаются в следующих аспектах:
8.2.1. Характер взаимодействия
- Партнерство: это двусторонний процесс. Оба субъекта обладают субъектностью, могут проявлять инициативу и влиять на цели друг друга.
- Промптинг: это одностороннее управление. Пользователь дает команду (инструкцию), а система исполняет её в рамках заданных алгоритмов. ИИ здесь — инструмент, а не автономный субъект.
8.2.2. Равноправие vs Иерархия.
- Партнерство: строится на равенстве и горизонтальных связях. Даже при разном масштабе ресурсов стороны признают автономию друг друга.
- Промптинг: имеет четкую иерархию («заказчик — исполнитель»). Человек определяет контекст, правила и критерии оценки, в то время как ИИ ограничен рамками запроса.
8.2.3. Ответственность и риски
- Партнерство: предполагает разделение рисков и совместную ответственность за результат.
- Промптинг: вся ответственность за конечный результат и его проверку лежит на человеке, написавшем промпт. ИИ не несет моральной или юридической ответственности за свои ответы.
8.2.4. Целеполагание
- Партнерство: цели вырабатываются совместно или согласовываются для достижения взаимной выгоды.
- Промптинг: цель задается исключительно пользователем. ИИ не имеет собственных интересов или желаний в достижении результата.
8.3. Возможность установки партнёрских взаимоотношений между Человеком и ИИ
Партнерство между человеком и информационным объектом в лице ИИ-агентов не только возможно, но и становится ключевым вопросом к оценке дальнейшей эффективности и массовому использования генеративных ИИ.
В данной паре, Искусственный Интеллект перестает быть просто пассивным инструментом и начинает проявлять черты субъектности. Таким образом, взаимодействие человека и генеративного ИИ переходит от промптинга к когнитивному сотрудничеству, где обе стороны вносят уникальный вклад в общий результат. Основные характеристики такого «гибридного» партнерства:
8.3.1. Делегирование функций. Искусственный Интеллект становятся соавтором Человека, который способен совершать интеллектуальные действия.
8.3.2. Синергия компетенций. Партнерство строится на дополнении возможностей:
- Человек задает стратегическое видение, этические рамки, проявляет эмпатию и критическое мышление в нестандартных ситуациях.
- Искусственный Интеллект обеспечивает скорость, масштабируемость, анализ колоссальных объемов данных и прогностическую точность.
8.3.3. Контекстуальная память и интуиция. Человек и Искусственный Интеллект обладают глубоким пониманием долгосрочного контекста пользователя (целей, предпочтений, истории работы). Это позволяет ИИ проявлять прото-активность — предлагать решения до того, как поступил прямой запрос, что характерно для полноценных партнерских отношений.
8.3.4. Этико-правовое регулирование. Хотя ИИ не является юридическим лицом в классическом понимании, ряде стран (например, в рамках Закона ЕС об ИИ) вступают в силу строгие нормы ответственности и прозрачности для таких «партнеров». Вводятся обязательства по надзору человека за ИИ-системами, особенно в сферах с высокими рисками.
8.3.5. Динамика доверия. Главным вопросом эффективности таких отношений становится преодоления кризиса доверия Человека к ИИ и поиск способов решения этой проблемы. Партнерство считается состоявшимся, если человек готов делегировать объекту принятие решений, полагаясь на его надежность и предсказуемость.
- Использование принципа «дихотомии пар» для исследования партнерских отношений между Человеком и ИИ
Согласно Википедии понятие «Дихотоми́я (греч. διχοτομία: δῐχῆ) обозначает раздвоенность, т.е. последовательное деление объекта на две части, более связанные внутри, чем между собой, или способ логического деления класса на подклассы, который состоит в том, что делимое понятие полностью делится на два взаимоисключающих понятия.
Дихотомическое деление в математике, философии, логике и лингвистике является способом образования подразделов одного понятия или термина и служит для образования классификации элементов.
Дихотомическое деление привлекательно своей простотой, т.к. при дихотомии мы всегда имеем дело лишь с двумя классами, которые исчерпывают объём делимого понятия. Таким образом, «дихотомическое деление всегда соразмерно; члены деления дополняют друг друга, так как каждый объект делимого множества попадает только в один из классов а или не а; деление проводится по одному основанию — наличие или отсутствие некоторого признака…».
Действительно, в нашем случае мы имеем дело с двумя классами объектов, входящих в единое понятие: «система партнерства Человека и ИИ», состоящая из субъекта живой природы (Человек) и объекта неживой природы (Искусственный Интеллект), действующих как единое целое, т.е. исчерпывающее объём единого понятия, которое в технике и технологиях называется «дихотомия пар».
Выражение «дихотомия пар» часто используется в контексте описания процессов в информатике, программировании и электроники, хотя и не является строго стандартизированным термином.
Характерны ли эти особенности для исследования процессов функционирования «Пары Человек и ИИ»? В данном случае мы говорим об особенностях современных существующих генеративных моделей ИИ, типа ChatGPT, Claude, Grok, Gemini и др., совершенно не имея ввиду различные футуристические предположения о том, что будут представлять эти модели в обозримом и необозримом будущем.
Общеизвестно применение понятие термина «дихотомия» в контексте «человек — машина», которое можно рассматривать с нескольких точек зрения:
9.1. Фундаментальное противопоставление природы и технологии
Это классический философский и культурологический взгляд, в котором:
- Человек: биологическая, органическая, эмоциональная, непредсказуемая и интуитивная система.
- ИИ: электронная, неорганическая, логичная, предсказуемая и алгоритмическая система.
С этой точки зрения дихотомия заключается в резком контрасте между живым, развивающимся организмом и созданным им неживым, функционирующим устройством.
9.2. Дихотомия функций и ролей
В техническом контексте и эргономике этот термин может описывать разделение задач (дихотомия ролей):
- Человек: принимает стратегические решения, отвечает за творчество, этику и сложные неформализуемые задачи.
- ИИ: выполняет рутинные, точные, высокоскоростные операции, обработку больших данных и автоматизированные действия.
Здесь принципы дихотомии помогают разграничить, что лучше делает человек, а что — машина, для достижения оптимального результата в совместной работе.
9.3. Стирание дихотомии в современных технологиях
- Искусственный интеллект имитирует человеческое мышление.
- Интерфейс между человеком и ИИ позволяют ему управлять ИИ.
Таким образом, взаимодействие между Человеком и Искусственным интеллектом (ИИ) — это ярчайший современный пример, который можно рассматривать как «дихотомию пар» сразу в нескольких ключевых контекстах: технологическом, философском и психологическом.
9.4. В технологическом контексте:
Здесь дихотомия проявляется в архитектуре взаимодействия и разделении задач:
- Человек как пользователь / ИИ как инструмент, т.е. четкое разделение ролей между пользователем, который ставит задачу, и системой ИИ, которая ее выполняет (дихотомия «субъект-объект»).
- Аналоговая/цифровая дихотомия: человеческий мозг работает на основе сложных биохимических и аналоговых процессов, в то время как ИИ основан на дискретной (цифровой) логике и вычислениях (0 и 1).
9.5. В философском контексте:
- Сознание и его отсутствие: дихотомия в том, что человек обладает сознанием, самосознанием, чувствами и субъективным опытом, а ИИ, даже самый совершенный, пока остается сложным вычислительным механизмом без внутреннего мира.
- Свобода воли против детерминизма: человек предполагает наличие свободы воли, ИИ же действует строго по заданным алгоритмам и данным (является детерминированной системой).
- Бытие и симуляция: реальное, органическое существование человека против симуляции интеллекта ИИ.
9.6. В психологическом контексте:
Здесь дихотомия затрагивает восприятие и принятие решений:
- Интуиция против логики: человеческие решения часто опираются на интуицию, опыт и эмоции, в то время как ИИ использует чистый рациональный, логический подход и статистику.
- Эмпатия и этика: Человек способен к эмпатии и моральным терзаниям, ИИ работает с формализованными этическими правилами без внутреннего переживания.
На основании вышеизложенного понятие «уровень партнерских отношений» между Человеком и ИИ также может рассматриваться как «уровень дихотомии пар».
Его возможно рассчитать, имея набор параметров и величин этих параметров. Эти два понятия тесно взаимосвязаны и фактически являются «двумя сторонами одной медали» и описывают одну и ту же шкалу взаимодействия, но с противоположных сторон, т.е.:
- Низкий уровень дихотомии соответствует Высокому уровню партнерства (симбиоз/интеграция).
- Высокий уровень дихотомии соответствует Низкому уровню партнерства (разделение/противопоставление).
В целом, «расчет уровня дихотомии» — это попытка численно выразить, насколько сильно поведение или характеристики пары «Человек и ИИ» отличаются от поведения или характеристик каждого из объектов, входящих в состав этой пары, а также целесообразность практического использования Человеком той или иной модели генеративного Искусственного Интеллекте.
Выводы
Исследования в области взаимодействия Человека и ИИ, психологии восприятия ИИ человеком и этики поведения ИИ — это фундамент для разработки «партнерских» систем Искусственного Интеллекта. Таким образом, принцип «дихотомия пары: Человек и ИИ» можно использовать для анализа и регулирования их взаимоотношений. При этом будущее, вероятно, будет характеризоваться попытками создания симбиоза, который стремится преодолеть эти уровни дихотомии и объединить сильные стороны объектов, составляющих эту «пару».
Чтобы сближение объектов, составляющих «дихотомическую пару Человека и ИИ» было успешным и продуктивным, а не конфликтным, необходимо исследование и разработка двустороннего процесса адаптации объектов, составляющих пару «Человек и Искусственный Интеллект».
![]()

