Google будет использовать жидкостное охлаждение серверов для обработки ИИ в своих ЦОД

Google будет использовать жидкостное охлаждение серверов для обработки ИИ в своих ЦОД

Поисковый гигант Google начал оснащать системами жидкостного охлаждения свое новейшее серверное оборудование для проведения расчетов, связанных с искусственным интеллектом: Tensor Processing Unit (TPU). Все потому, что уровень тепла, создаваемый этими новыми модулями, превысил допустимые границы, и стандартные решения для охлаждения центров обработки данных Google оказались не в состоянии обеспечивать нормальную работу TPU.

Во время выступления на конференции разработчиков IO18 генеральный директор Google Сундар Пичаи продемонстрировал TPU 3.0 с серверной материнской платой и тепловыми трубками, присоединенными к микросхемам.

«Эти чипы настолько мощные, что нам впервые пришлось внедрять жидкостное охлаждение в наших дата-центрах. Каждый из этих блоков теперь в восемь раз мощнее, чем TPU, показанные в прошлом году, предлагая производительность более 100 петафлоп», — сказал Пичай.

Блок TPU — это настраиваемое ASIC-решение, специально разработанное для обслуживания библиотеки программного обеспечения с открытым исходным кодом для машинного обучения TensorFlow от компании Google. Решение ASIC (Application Specific Integrated Circuit) — это чип, который можно настроить для выполнения конкретной задачи. В качестве примера ASIC можно привести чипы, используемые для майнинга биткойнов. Поисковый гигант Google использует свои блоки TPU для обслуживания систем искусственного интеллекта.

Устройства эксплуатируются в тандеме с вполне стандартной СЖО. Жидкий хладагент подается на охлаждающую пластину, контактирующую с каждым чипом ASIC TPUv3. При этом на каждой материнской плате располагается по четыре чипа. К каждой пластине прикреплено по две тепловые трубки. Это указывает на то, что хладагент циркулирует через трубку в охлаждающую пластину, а затем покидает ее, удаляя лишнее тепло во внешний контур. Организация жидкостного охлаждения непосредственно чипа позволяет Google обеспечить более интенсивную вычислительную нагрузку, а также высокую эффективность.

Блоки TPU формируют вычислительные кластеры из восьми серверных стоек каждый. Каждая стойка имеет по 16 блоков с IT-оборудованием. Сетевые коммутаторы располагаются в верхней части стойки. В закрытой зоне внизу каждой стойки имеется инфраструктура охлаждения: распределительный блок, который используется для перекачивания охлаждающей жидкости.

Источник: TelecomBloger.ru

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *