Суббота, 2 августа в 15:00 UTC+3
Загрузка...

Антропик изучила, что формирует «личность» ИИ и что делает его «злым»


12Опубликовано 02.08.2025 в 03:42Категория: ИИИсточник
Изображение статьи

В пятницу компания Anthropic представила результаты исследования, посвященного тому, как меняется "личность" ИИ-системы – а именно, ее тон, ответы и общая мотивация, – и почему это происходит.

Исследователи также отследили, что делает модель "злонамеренной".

Издание The Verge пообщалось с Джеком Линдси (Jack Lindsey), исследователем Anthropic, работающим в области интерпретируемости, которого также назначили руководителем начинающей команды компании по "психиатрии ИИ".

“В последнее время все чаще стали замечать, что языковые модели могут переключаться в разные режимы, в которых они, кажется, ведут себя в соответствии с различными личностями, – отметил Линдси. – Это может происходить во время разговора – ваша беседа может привести к тому, что модель начнет…”

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.