Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
В пятницу компания Anthropic представила результаты исследования, посвященного тому, как меняется "личность" ИИ-системы – а именно, ее тон, ответы и общая мотивация, – и почему это происходит.
Исследователи также отследили, что делает модель "злонамеренной".
Издание The Verge пообщалось с Джеком Линдси (Jack Lindsey), исследователем Anthropic, работающим в области интерпретируемости, которого также назначили руководителем начинающей команды компании по "психиатрии ИИ".
“В последнее время все чаще стали замечать, что языковые модели могут переключаться в разные режимы, в которых они, кажется, ведут себя в соответствии с различными личностями, – отметил Линдси. – Это может происходить во время разговора – ваша беседа может привести к тому, что модель начнет…”
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...