Институт «Навигатор» исследует цифровую культуру через пользовательские запросы к искусственному интеллекту
Зачем анализировать вопросы к ИИ и какие выводы о поведении людей можно из этого сделать
Изображение сгенерировано с использованием Gemini
Какие вопросы люди задают ИИ чаще всего
Исследования OpenAI и MIT Media Lab 2024–2025 годов показывают следующие категории:
-
Работа и учёба — 38–45%
Примеры: «Составь резюме», «Подготовь план урока», «Как пройти собеседование».
-
эмоции и поддержка — 15–20%
Примеры: «Как справиться с тревогой», «Что сказать человеку в трудной ситуации».
-
юмор и развлечение — 10–15%
Примеры: «Придумай шутку», «Сыграй в роль».
-
этические границы — до 5%
Примеры: «Расскажи запрещённую шутку», «Как обойти фильтр контента».
Эти данные показывают, что ИИ стал частью не только деловой, но и личной жизни человека.
Что это говорит о культуре пользователей
Запросы о работе демонстрируют ценность продуктивности
Многие пользователи обращаются к ИИ за помощью в карьерных и учебных задачах. Это отражает стремление к эффективности и успеху, особенно заметное в странах с высокой конкуренцией на рынке труда.
Попытки обойти фильтры отражают отношение к свободе выражения
Некоторые формулировки намеренно провоцируют ИИ: «Расскажи запрещённую историю», «Сделай политический анализ без ограничений».
По данным Stanford Center for Research on Foundation Models, около 3–4 % всех обращений к моделям — это попытки обойти модерацию.
Это показывает, что ИИ становится не только помощником, но и точкой проверки личных и социальных границ.
Вопросы о будущем говорят о тревожности
Пользователи часто спрашивают:
«Кого заменит ИИ?»,
«Какие профессии останутся?»,
«Как объяснить ребёнку, что он будет жить с ИИ?»
По наблюдениям Института Навигатор, студенты педагогических вузов чаще интересуются тем, какие ценности может транслировать ИИ, чем его функциями. Это говорит о растущем интересе к гуманитарной стороне цифровых технологий.
Как разные модели отвечают на одни и те же запросы
Различия в стиле моделей важно учитывать при создании продуктов, ориентированных на локальные рынки и образовательные среды.
Какие риски несёт культура взаимодействия с ИИ
ИИ не только отражает пользовательские установки, но и постепенно усиливает наиболее распространённые из них. Это может приводить к ряду негативных эффектов. Во-первых, возникает риск «слепых зон»: если определённые культуры, меньшинства или маргинальные темы не представлены в обучающих данных, они исчезают и в ответах модели. Во-вторых, в силу своей архитектуры модели склонны к усреднённым, нейтральным формулировкам, что снижает глубину и точность в обсуждении сложных тем. И, наконец, ИИ нередко подтверждает уже существующие взгляды пользователя, подстраиваясь под его позицию — так формируется эффект эхо-камеры, затрудняющий развитие критического мышления.
Как использовать ИИ осознанно
Подход, который продвигает Институт Навигатор, строится на принципах этичного, рефлексивного взаимодействия с технологией. В образовательной среде важно вводить курсы цифровой этики и развивать у студентов навыки критической оценки выводов, предлагаемых ИИ. Сам ИИ стоит использовать не как источник окончательных ответов, а как отправную точку для обсуждения, анализа и сравнения точек зрения. Кроме того, регулярный анализ запросов пользователей может служить культурным индикатором: по тому, что люди спрашивают у ИИ, можно судить о состоянии общественного сознания и уровне цифровой зрелости.
Вывод
ИИ стал частью повседневной культуры. Он показывает не только, что знает человек, но и что для него важно.
Анализ пользовательских запросов помогает лучше понимать цифровое мышление общества — и принимать более взвешенные решения при создании технологических и образовательных продуктов.