Компания Supermicro, Inc., поставщик комплексных ИТ-решений для искусственного интеллекта, облачных технологий, систем хранения данных и 5G/Edge, расширяет возможности ИИ благодаря предстоящей поддержке нового NVIDIA HGX H200, созданного на базе графических процессоров с тензорным ядром H200. Ведущие в отрасли платформы искусственного интеллекта Supermicro, включая 8U и 4U системы универсальных графических процессоров, готовятся к работе с HGX H200 8-GPU, 4-GPU и имеют почти 2-кратную емкость и память HBM3e с пропускной способностью в 1,4 раза выше по сравнению с NVIDIA H100 на базе графических процессоров с тензорным ядром. Кроме того, широчайший ассортимент систем Supermicro NVIDIA MGXTM поддерживает будущий суперчип NVIDIA Grace Hopper с памятью HBM3e. Благодаря беспрецедентной производительности, масштабируемости и надежности стоечные решения на основе искусственного интеллекта Supermicro ускоряют производительность вычислений генеративных технологий искусственного интеллекта, обучения большой языковой модели (LLM) и приложений с высокопроизводительными вычислениями, одновременно удовлетворяя меняющиеся потребности растущих размеров моделей. Используя блочную архитектуру, Supermicro может быстро вывести на рынок новые технологии, позволяя клиентам быстрее повысить продуктивность.

Кроме того, компания Supermicro представляет сервер с самой высокой плотностью в отрасли с системами NVIDIA HGX H100 8-GPU в системе 4U с жидкостным охлаждением, использующей новейшее решение жидкостного охлаждения Supermicro. Самый компактный в отрасли высокопроизводительный сервер GPU позволяет операторам центров обработки данных сокращать занимаемую площадь и затраты на электроэнергию, обеспечивая при этом высочайшую производительность обучения искусственного интеллекта, доступную на одной стойке. Благодаря системам GPU с максимальной плотностью размещения оборудования организации могут сократить свою совокупную стоимость владения за счет использования самых современных систем жидкостного охлаждения.
«Компания Supermicro сотрудничает с NVIDIA в целях разработки самых передовых систем обучения искусственного интеллекта и приложений с высокопроизводительными вычислениями, — заявил президент и генеральный директор Supermicro Чарльз Льян (Charles Liang). — Наша блочная архитектура позволяет нам выйти первыми на рынок с использованием новейших технологий, что позволяет клиентам быстрее, чем когда-либо ранее, внедрять генеративный искусственный интеллект. Мы можем быстрее поставлять эти новые системы клиентам благодаря нашим производственным мощностям по всему миру. Новые системы, использующие NVIDIA H200 GPU с высокоскоростными соединителями GPU-GPU на 900 ГБ/с NVIDIA® NVLink™ и NVSwitch™, теперь предоставляют до 1,1 TB высокопропускной памяти HBM3e на каждый узел в наших стоечных системах искусственного интеллекта, обеспечивая высочайшую производительность параллелизма моделей для современных систем LLM и генеративного искусственного интеллекта. Мы также рады предложить самый компактный в мире сервер с жидкостным охлаждением NVIDIA HGX 8-GPU, который вдвое увеличивает плотность наших стоечных решений для систем искусственного интеллекта и снижает расходы на электроэнергию для обеспечения экологически безопасных вычислений для современного ускоренного центра обработки данных».
Supermicro разрабатывает и производит широкий ассортимент серверов для систем искусственного интеллекта с различными форм-факторами. Популярные системы универсальных графических процессоров 8U и 4U с четырехсторонними и восьмисторонними NVIDIA HGX H100 GPU теперь готовы к использованию новой модели H200 GPU для обучения еще больших языковых моделей за меньшее время. Каждый NVIDIA H200 GPU содержит память 141 ГБ с полосой пропускания 4,8 TБ/с.
«Новые разработки серверов Supermicro с использованием NVIDIA HGX H200 будут способствовать ускорению работы генеративного искусственного интеллекта и высокопроизводительных вычислений, что позволит предприятиям и организациям извлечь максимальную пользу из своей инфраструктуры искусственного интеллекта, — заявил Дион Харрис (Dion Harris), директор по разработке решений для центров обработки данных с использованием высокопроизводительных вычислений, искусственного интеллекта и квантовых вычислений в NVIDIA. — Модель NVIDIA H200 GPU с высокоскоростной памятью HBM3e сможет обрабатывать огромные объемы данных для различных задач».
Кроме того, недавно запущенные серверы Supermicro MGX с суперчипами NVIDIA GH200 Grace Hopper предназначены для интеграции NVIDIA H200 GPU с памятью HBM3e.
Новая модель NVIDIA GPU обеспечивает ускорение объединения сегодняшних и будущих крупных языковых моделей (LLM) со 100 миллиардами параметров в более компактные и эффективные кластеры для обучения генеративного искусственного интеллекта за меньшее время, а также позволяет нескольким крупным моделям помещаться в единую систему для вывода LLM в реальном времени, позволяющего обслуживать генеративный искусственный интеллект для миллионов пользователей.