Clustered Systems разместит в одной стойке серверы общей мощностью в 100 киловатт

Clustered Systems разместит серверы общей мощностью в 100кВт в одной стойке

Для сравнения: энергопотребление серверного оборудования в типичной стойке современного дата-центра находится в пределах от 4 до 8 киловатт. Показатели дата-центров, специализирующихся на облачных сервисах, и кластеров HPC выше — примерно 12-20 киловатт. Разработчики сообщили, что система питается от трехфазной сети на 480 вольт, а для охлаждения требуется подача воды и минимальная инфраструктура охлаждения без чиллеров. Вентиляторы для охлаждения серверов также не используются, то есть энергию потребляет, главным образом, само серверное оборудование. Основатель и генеральный директор Clustered Systems — Фил Хьюз (Phil Hughes) отметил, что внедрение таких компактных систем может изменить всю картину при развертывании дата-центров и кластеров HPC, поскольку «инвестиции в кирпичи и раствор» будут сведены к минимуму.

Clustered Systems разместит серверы мощностью в 100кВт в 1-ой стойке

По словам разработчиков, охлаждающая система очень проста — жидкий охладитель, циркулирующий в платах охлаждения, проходит через теплообменник, в который с помощью насоса подается охлажденная вода. В процессе тестирования специалисты компании использовали на входе в теплообменник воду с температурой до 26°C, устройство при этом продолжало функционировать в нормальном режиме. Именно это и позволяет компании утверждать, что необходимости в чиллерах нет.

На вход системы поступает трехфазное питание 480В переменного напряжения. Система первичного питания преобразует данное напряжение в постоянное 380В. Система вторичного питания понижает 380В до рабочего значения 12В на каждом шасси. В «лезвие» установлено две двухпроцессорные системы семейства Intel XEON E5, разработанные компанией Inforce. Межмодульное взаимодействие во всей системе использует PCI-Express шину, разработанную компанией OneStopSystems. Все лезвия взаимодействуют друг с другом по данной шине, пропускная способность которой 40Гб/с.

Целевым покупателем такой системы производители видят научные организации, у которых есть деньги на оборудование, но нет средств для организации инфраструктуры ЦОД, или трейдеров, которым нужно на минимальном пространстве разместить HPC систему.

Источник: Data Center Knowledge

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *