Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Институт «Навигатор» исследует цифровую культуру через пользовательские запросы к искусственному интеллекту

Зачем анализировать вопросы к ИИ и какие выводы о поведении людей можно из этого сделать

Изображение сгенерировано с использованием Gemini

 

Какие вопросы люди задают ИИ чаще всего

Исследования OpenAI и MIT Media Lab 2024–2025 годов показывают следующие категории:

  • Работа и учёба — 38–45%
    Примеры: «Составь резюме», «Подготовь план урока», «Как пройти собеседование».
     

  • эмоции и поддержка — 15–20%
    Примеры: «Как справиться с тревогой», «Что сказать человеку в трудной ситуации».
     

  • юмор и развлечение — 10–15%
    Примеры: «Придумай шутку», «Сыграй в роль».
     

  • этические границы — до 5%
    Примеры: «Расскажи запрещённую шутку», «Как обойти фильтр контента».
     

Эти данные показывают, что ИИ стал частью не только деловой, но и личной жизни человека.

Что это говорит о культуре пользователей

Запросы о работе демонстрируют ценность продуктивности

Многие пользователи обращаются к ИИ за помощью в карьерных и учебных задачах. Это отражает стремление к эффективности и успеху, особенно заметное в странах с высокой конкуренцией на рынке труда.

Попытки обойти фильтры отражают отношение к свободе выражения

Некоторые формулировки намеренно провоцируют ИИ: «Расскажи запрещённую историю», «Сделай политический анализ без ограничений».
По данным Stanford Center for Research on Foundation Models, около 3–4 % всех обращений к моделям — это попытки обойти модерацию.

Это показывает, что ИИ становится не только помощником, но и точкой проверки личных и социальных границ.

Вопросы о будущем говорят о тревожности

Пользователи часто спрашивают:
«Кого заменит ИИ?»,
«Какие профессии останутся?»,
«Как объяснить ребёнку, что он будет жить с ИИ?»

По наблюдениям Института Навигатор, студенты педагогических вузов чаще интересуются тем, какие ценности может транслировать ИИ, чем его функциями. Это говорит о растущем интересе к гуманитарной стороне цифровых технологий.

Как разные модели отвечают на одни и те же запросы

Различия в стиле моделей важно учитывать при создании продуктов, ориентированных на локальные рынки и образовательные среды.

Какие риски несёт культура взаимодействия с ИИ

ИИ не только отражает пользовательские установки, но и постепенно усиливает наиболее распространённые из них. Это может приводить к ряду негативных эффектов. Во-первых, возникает риск «слепых зон»: если определённые культуры, меньшинства или маргинальные темы не представлены в обучающих данных, они исчезают и в ответах модели. Во-вторых, в силу своей архитектуры модели склонны к усреднённым, нейтральным формулировкам, что снижает глубину и точность в обсуждении сложных тем. И, наконец, ИИ нередко подтверждает уже существующие взгляды пользователя, подстраиваясь под его позицию — так формируется эффект эхо-камеры, затрудняющий развитие критического мышления.

Как использовать ИИ осознанно

Подход, который продвигает Институт Навигатор, строится на принципах этичного, рефлексивного взаимодействия с технологией. В образовательной среде важно вводить курсы цифровой этики и развивать у студентов навыки критической оценки выводов, предлагаемых ИИ. Сам ИИ стоит использовать не как источник окончательных ответов, а как отправную точку для обсуждения, анализа и сравнения точек зрения. Кроме того, регулярный анализ запросов пользователей может служить культурным индикатором: по тому, что люди спрашивают у ИИ, можно судить о состоянии общественного сознания и уровне цифровой зрелости.

Вывод

ИИ стал частью повседневной культуры. Он показывает не только, что знает человек, но и что для него важно.

Анализ пользовательских запросов помогает лучше понимать цифровое мышление общества — и принимать более взвешенные решения при создании технологических и образовательных продуктов.