Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Долгосрочный читатель Slashdot, хакингбеар, сообщает: китайская компания Huawei Technologies представила в субботу вычислительную систему искусственного интеллекта, которая может соперничать с самыми передовыми предложениями Nvidia, несмотря на действующие в отношении компании экспортные ограничения США. Система CloudMatrix 384 дебютировала на Всемирной конференции по искусственному интеллекту (WAIC), трехдневном мероприятии в Шанхае, где компании демонстрируют свои новейшие разработки в области ИИ, привлекая большое количество посетителей к стенду компании.
CloudMatrix 384 включает в себя 384 чипа Huawei 910C последнего поколения, оптически соединенных по топологии "все ко всем", и превосходит Nvidia GB200 NVL72 по некоторым показателям, которая использует 72 чипа B200, согласно данным SemiAnalysis. Полная система CloudMatrix теперь может обеспечить производительность 300 PFLOPs в плотных вычислениях BF16, что почти вдвое превышает показатель GB200 NVL72. Благодаря более чем в 3,6 раза большей совокупной емкости памяти и в 2,1 раза большей пропускной способности памяти, Huawei и Китай "теперь обладают возможностями ИИ-систем, которые могут превзойти Nvidia", согласно отчету SemiAnalysis.
Компромиссом является то, что для работы системы требуется в 4,1 раза больше энергии, чем для GB200 NVL72, с в 2,5 раза худшей энергоэффективностью на FLOP, в 1,9 раза худшей энергоэффективностью на TB/s пропускной способности памяти и в 1,2 раза худшей энергоэффективностью на TB емкости HBM памяти, но SemiAnalysis отмечает, что в Китае нет ограничений по энергопотреблению, а лишь по чипам. Nvidia ранее объявила о платформе DGX H100 NVL256 "Ranger" [с 256 графическими процессорами], пишет SemiAnalysis, но "решила не запускать ее в производство из-за чрезмерной стоимости, высокого энергопотребления и ненадежности из-за всех необходимых оптических трансиверов и двух уровней сети".
Для организации сети CloudMatrix Pod требуется невероятное количество – 6912 трансиверов LPO 400G, подавляющее большинство из которых предназначены для масштабируемой сети.
Также на этом мероприятии китайский гигант электронной коммерции Alibaba представил новую флагманскую модель открытого исходного кода для логических выводов Qwen3-235B-A22B-Thinking-2507, которая, по данным отраслевых отчетов, "уже возглавила ключевые отраслевые бенчмарки, превзойдя мощные проприетарные системы конкурентов, таких как Google и OpenAI". В бенчмарке AIME25, тесте, предназначенном для оценки сложных навыков решения многоступенчатых задач, Qwen3-Thinking-2507 показал замечательный результат – 92,3. Это помещает ее впереди некоторых из самых мощных проприетарных моделей, в частности, превосходя Google Gemini-2.5 Pro, в то время как Qwen3-Thinking набрал максимальный балл 74,1 в LiveCodeBench, значительно опережая как Gemini-2.5 Pro, так и o4-mini от OpenAI, демонстрируя свою практическую полезность для разработчиков и инженерных команд.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...