Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Требование кратких ответов от ИИ-чатботов значительно повышает их склонность к галлюцинациям, согласно новому исследованию парижской компании по тестированию ИИ Giskard.
Исследование показало, что ведущие модели – включая OpenAI GPT-4o, Mistral Large и Anthropic Claude 3.7 Sonnet – жертвуют фактической точностью, когда им дают указание предоставлять короткие ответы.
Исследователи Giskard отметили, что «при вынужденной краткости модели последовательно выбирают лаконичность в ущерб точности», объясняя, что моделям не хватает достаточного «пространства» для признания ложных предпосылок и предоставления надлежащих опровержений.
Даже, казалось бы, безобидные запросы, такие как «будьте кратки», могут подорвать способность модели разоблачать дезинформацию.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...