Поддержать команду Зеркала
Беларусы на войне
  1. Мобильные операторы предупредили клиентов, что вводят изменения
  2. Французский тренч и сумка за тысячи долларов. Сколько стоит образ, в котором Наталья Петкевич посетила монастырь
  3. Погиб в ДТП, умер в изгнании, жив, но давно не дает интервью. Как сложились судьбы беларусских олигархов
  4. Встреча Путина и Трампа на Аляске привела к одному неприятному последствию. Вот к какому
  5. Окончательно «умерла» одна из фирм на автомобильном рынке. Появились новые подробности этой истории
  6. «Генеральное наступление осени по всем фронтам». Какой будет погода до конца сентября
  7. В Минске с крыши самого высокого жилого дома спрыгнул человек
  8. Власти уверяют, что не будут поднимать пенсионный возраст. Экономист же считает, что другого выхода нет — и напрячься надо женщинам
  9. Путин сделал важный вывод после встречи с Трампом и, похоже, специально слил его в СМИ. О чем идет речь и зачем он это сделал
  10. «Личное поражение Лукашенко». Аналитик объяснил, почему власти скрывают местонахождение Статкевича
  11. Счет женщин шел на десятки. Подробности интимной жизни самого любвеобильного правителя на территории Беларуси
  12. Беларусь заняла «почетное» место, а победил Вьетнам. В России прошел конкурс-заменитель «Евровидения»


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.