Поддержать команду Зеркала
Беларусы на войне
  1. Для тех, у кого есть автомобили, квартиры и земельные участки, чиновники придумали очередное налоговое новшество
  2. Для тех, кто получает подарки не от родственников, хотят ввести налоговое новшество. Тот случай, когда оно вряд ли понравится
  3. Крупнейшую сеть фастфуда в Беларуси открывал выходец из КГБ. Рассказываем
  4. Россия задействовала «ошеломляющее количество» живой силы и техники для захвата Покровска. Что сейчас происходит в городе и вокруг него
  5. Его открывали с помпой и снесли тайком за одну ночь. Рассказываем, что за огромный памятник стоял в центре Минска
  6. Собрали пять скрытых признаков СДВГ у взрослых. Эти особенности часто принимают за характер, но их игнорирование опаснее, чем кажется
  7. «У всех сейчас одна в любой валюте». Стала известна рыночная цена подсадки в автобусы на границе Беларуси с Польшей
  8. Осужденный за убийство беларуски в Варшаве подал жалобу на приговор. Стало известно окончательное решение по делу
  9. Стало известно, какие продукты беларусы едят больше всех в мире. И это не картофель
  10. Беларусь готовится получить щедрый «подарок» из-за границы — его масштабы впечатляют. Но это несет риски для страны
  11. Польский визовый центр добавил новую категорию виз. Кто по ней может подать документы
  12. Синоптики рассказали, когда в страну придет «весьма существенное похолодание»
  13. Жителям четырех районов Минска в воду добавят флуоресцеин. Что это
  14. Для водителей намерены ввести новшество с 1 января


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.