Поддержать команду Зеркала
Беларусы на войне
  1. Быстрый взлет «грамотного врача», который пошел на сделку с совестью. Рассказываем о необычной карьере Владимира Караника
  2. Эксперты предрекают Третью мировую войну в течение ближайших десяти лет
  3. Лукашенко рассыпался в комплиментах Трампу и заявил о готовности «встать рядом»
  4. Совпадение или Кремль «выкупает» у Беларуси часть независимости в обмен на «плюшки»? Поговорили с экспертами о двух документах
  5. Беларусы ответили на призыв Лукашенко, чтобы люди «хотя бы обеспечили свою семью и себя». Вышло весьма хлестко
  6. Зеленский — об остановке помощи США: Россияне будут требовать сокращения нашей армии, отказа от оккупированных территорий
  7. «Меня часто спрашивают, знал ли я о том, что эта война начнется в феврале три года назад». Лукашенко — о войне в Украине
  8. Трамп: Украина готова вернуться за стол переговоров, Россия посылает сигналы, что готова к миру
  9. Источник «Зеркала»: Задержан директор Дворца культуры МАЗ
  10. В ООН раскритиковали новый беларусский законопроект — им детей хотят оградить от «экстремистов»
  11. Где сейчас работают мемная замминистра и «самый яркий экономист»? Узнали о судьбе бывших топовых чиновников
  12. В ЕС согласовали введение новой системы въезда и выезда. Когда ее могут запустить
  13. Силовики увольняются из РУВД и ОМОН, не вернув контрактные — долги растут. Что происходит с финансами в минской милиции
  14. Узнали, что за бизнес ведет семья Воскресенских и чем Юрий официально зарабатывает на жизнь
  15. В Беларуси расширили список организаций, в которых разрешено досматривать посетителей, их личные вещи и авто
  16. Страны Шенгена наконец согласовали новую систему въезда. Рассказываем, что изменится для беларусов
  17. Сын главы МВД дал ориентировку на розыск драматурга Николая Халезина. Тот отреагировал: «Я к тебе сам приеду. Еще как приеду»
  18. Однажды Трамп уже хотел получить долю в минеральных богатствах другой страны, обещая взамен военную помощь. Все кончилось катастрофой
  19. Что-то новое. Живущей за границей беларуске милиция прислала незаполненное заявление для СК — о том, что она не планирует возвращаться
  20. Кремль заявил о намерении воспользоваться решением США приостановить военную помощь Украине и обмен разведданными — что могут сделать


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.