Поддержать команду Зеркала
Беларусы на войне
  1. «Литва может последовать примеру Польши». Тихановская предупредила о риске закрытия литовской границы
  2. «Действие рождает противодействие». Польша объяснила Китаю, когда может быть открыта граница с Беларусью
  3. «Надо мозговой штурм, может, повезут к Лукашенко». Поговорили с политиком, которого отпустили после визита в Минск представителя Трампа
  4. Власти вводят новшества для ЖКУ. Они касаются «тунеядцев» и новоселов
  5. В МИД Украины отреагировали на встречу Лукашенко с главой оккупационной администрации Херсонской области
  6. МВД: В Беларуси появился новый вид мошенничества с банковскими картами
  7. Нацбанк попросил ученых выяснить, «что же все-таки светится» в долларах, которые бракуют банки. Головченко рассказал о выводах
  8. Стало ясно, что будет с курсом доллара в сентябре: прогноз по валютам
  9. «Наша Ніва»: Николая Статкевича, отказавшегося уезжать из Беларуси, вернули в колонию в Глубоком
  10. Американские военные неожиданно явились наблюдать за учениями «Запад-2025». Эксперты порассуждали о значении этого визита
  11. Зеленский назвал главное условие для прекращения войны в Украине
  12. «Возможно, все произошло из-за беспечности или по незнанию». Дрон над президентским дворцом в Варшаве запустили беларуска и украинец
  13. Военные расходы России формируют дыру в бюджете. Эксперты объяснили, кто заплатит за дефицит
  14. «Поляки чудят?» Лукашенко спросил главу таможни, «что там случилось на границе», — какой ответ услышал


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.