ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Белый пепел, «дети-медузы» и рождение монстра. История катастрофического ядерного испытания, которую пытались скрыть
  2. BELPOL: Российский завод сорвал сроки и выставил огромный счет беларусам за «союзный самолет»
  3. Адский понедельник. 65 лет назад случилась катастрофа, которую советские власти пытались стереть из истории Киева, — рассказываем
  4. «Так живет почти вся Беларусь». В Threads показали расчетный лист якобы с одного из предприятий — некоторых удивила зарплата
  5. «Модели, от которых болят глаза». Стилистка ответила на претензии министра о том, что беларусы не берут отечественное
  6. «Поставили клеймо». Стало известно, за что в прошлом году судили пропагандистку Ольгу Бондареву
  7. Помните убийство девушки в Минске, где мать с сыном расчленили труп, сварили и перекрутили в мясорубке? Вот что сейчас с преступником
  8. На польской границе пограничник зачеркнул беларуске печать, которую поставил, и «щелкнул» рядом вторую. Зачем он это сделал?
  9. «Меня в холодный пот бросило». Беларуска рассказала «Зеркалу», как забеременела в колонии и не знала об этом почти полгода
  10. «Не ел, не пил 20 лет, а потом еще заплати». Налоговики рассказали о нюансе по сбору на недвижимость — у некоторых это вызвало удивление
  11. «Грошык» опубликовал список «недружественных» стран, чье пиво пропадет из продажи. В Threads удивились отсутствию одного государства
  12. Чиновники решили взяться за очередную категорию работников
  13. На торговом рынке маячит очередное банкротство. Скорее всего, вы знаете эту компанию
  14. «Они должны помнить, что я говорил». Экс-журналист пула Лукашенко — об увольнении и разговорах с силовиками
  15. Доллар приближается к трем рублям: что будет с курсами во второй половине марта. Прогноз по валютам


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.