Поддержать команду Зеркала
Беларусы на войне
  1. Крупная IT-компания увольняет 23% команды в Польше. Значительная часть сотрудников офиса — беларусы, релоцированные в 2022 году
  2. Протасевич рассказал, как работа в КГБ помогает ему на провластном телеканале
  3. Лукашенко говорил, на что можно потратить деньги, сэкономленные на освещении. Стали известны подробности этих планов
  4. Скандальный функционер и сенатор Басков в прошлом году занялся новым бизнесом. Что сейчас с сетью и как она расширяется
  5. Один из самых известных беларусских актеров стал водителем автобуса в Польше
  6. На следующей неделе будет «плюс», но пока — только в одной области. Прогноз погоды на неделю с 9 по 15 февраля
  7. Доллар переходит в стадию роста: какими будут курсы в феврале? Прогноз по валютам
  8. Стало известно, как США давят на Украину из-за мирного соглашения и когда требуют провести новые выборы
  9. Заработали миллионы долларов на порно, но их империя рухнула из-за заварухи с приближенным Лукашенко. Кто такие «Поселковые»
  10. Умер старейший католический иерарх Беларуси епископ Казимир Великоселец
  11. Популярная блогерка из Минска работает в Израиле уборщицей и рассказывает, сколько получает


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.