Поддержать команду Зеркала
Беларусы на войне
  1. Кремль настаивает, что переговоры надо вести на основании Стамбульских протоколов 2022 года — что хотели тогда (и сейчас) от Украины
  2. «Наша Ніва»: Умерла 45-летняя экс-политзаключенная Тамара Каравай. В прошлом году она была освобождена по помилованию
  3. «Наша Ніва»: Выбитые двери, маски-шоу, задержание топ-менеджеров. В «Евроторг» пришли силовики
  4. «Хочет быть королем». Известный американский философ Фукуяма спрогнозировал, когда наступит мир в Украине — пересказываем главное
  5. Чиновники продолжают лишать возможности работать из-за «политики». Они решили ввести ужесточения для очередных работников
  6. «Путин устраивает кровавые бани — это поменяло позицию Трампа». Автор книги о Зеленском в интервью «Зеркалу» — про переговоры в Турции
  7. Есть пенсионная проблема, которую силовики решили для себя в 2020-м, хотя Минтруда «протестовало». Другим не так повезло — еще актуальна
  8. Власти попросят еще девять стран выдавать беларусов, разыскиваемых на родине
  9. Чиновники хотят повысить налоговую нагрузку. Кого это может затронуть
  10. Зеленский прилетел в Анкару, Путин в Турцию не поедет, Трамп — не определился
  11. Неофициальным заданием было «трахаться за родину». Рассказываем о циничной операции спецслужб, ломавшей женские судьбы
  12. Власти хотят запустить очередную базу данных о населении, к которой силовики получат круглосуточный доступ. Парламент утвердил новшество
  13. «Это была сковородка, меня ударили ей по ягодицам». Поговорили с парой, которую на годы разлучили из-за фото с марша
  14. Без песен Меладзе и в форме: как пройдут выпускные в школах и детсадах
  15. Если Путин приедет: Зеленский назвал две ключевые темы возможной встречи в Стамбуле
  16. Протасевич рассказал, сколько зарабатывает велокурьер сервиса «Яндекс.Еда»
  17. Власти придумали новшество, которое способно отбить у вас желание повышения зарплаты
  18. Грозы и заморозки. Синоптики рассказали про ожидающие нас неблагоприятные явления


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.