[identity profile] drvit.livejournal.com posting in [community profile] engineering_ru
Раз пошла такая пьянка тема, то добавлю в общую копилку сообщений о компьютерных центрах свой небольшой фоторепортаж двухлетней давности о вычислительном центре, коорый работает на благо прогресса до сих пор.







У Ганноверского института гравитационной физики есть много всякого замечательного. Например, "Атлас". A.T.L.A.S. это название суперкомпьютера, созданного для того, чтобы обрабатывать информацию, получаемую с радиотелескопов и гравитационных датчиков в рамках проекта по обнаружению гравитационных волн Einstein@Home. Тому, как выглядит "мозг" проекта, и посвящена эта небольшая фотоэкскурсия для любителей всяких высокотехнологичных железяк.
Вид из окна института тоже замечателен, живописен и умиротворяющ. Так и хочется, предавшись размышлениям о "высоких материях", посидеть под одной из этих яблонь в ожидании осенения догадкой открытия.

353.09 КБ

Но мы всё-таки выйдем из-под сени кущ и зайдём в здание института,

180.00 КБ

в котором находится суперкомпьютер, денно и нощно выискивающий в сигналах со всего простора Вселенной своим многотысячепроцессорным мозгом слабые признаки того, что Эйнштейн был прав. В святая святых нас приглашает Брюс Ален — руководитель проекта и директор института:

135.57 КБ

Заглянем в комнаты, где находится вспомогательное оборудование. Компьютер проектировался с целью максимизировать производительность для данного класса задач при вполне определённом бюджете. Поэтому составляющие вычислительного комплекса предельно просты и дёшевы. Например, в качестве резервного источника энергии выступают довольно простые аккумуляторы.

93.81 КБ

Мощность всего комплекса на 2011 год — почти пол-мегаватта.

91.46 КБ

Тем не менее, энергии аккумуляторов хватает на то, чтобы работа системы была завершена корректно. Это примерно пять минут. Система питания рассчитана на один мегаватт, то есть тогда использовалась только половина, и было возможно дополнительное наращивание вычислительной мощности.

131.49 КБ

Эти кабели настолько толстые, что для того, чтобы их гнуть, пришлось использовать специальные гидравлические инструменты. Зато надёжно.
Вот он, главный потребитель энергии:

185.10 КБ

Таких рядов — шесть. Естественно, всё это требует охлаждения. Система охлаждения здесь воздушно-водяная. Трубы с водой подходят к каждому такому шкафу и идут в небольшом подпольном промежутке:

105.79 КБ

Температура входящей воды около 12С, выходящей — 20С. Синяя трубка предназначена для стока конденсата.

97.92 КБ

Затем через двухконтурный теплообменник излишки тепловой энергии выводятся по трубам наружу.

138.23 КБ

Где тепло рассеивается в атмосферу окончательно.

Заглянем внутрь стойки с вычислительным оборудованием, на тему устройства которого на фото Брюс Ален даёт нам подробные пояснения.

125.83 КБ

Поскольку задача была сделать сервер максимально мощным при минимальной стоимости, вычислительные элементы выбирались стандартными и простыми: одноюнитовыми (высотой 45 мм, что равно одному вершку) с воздушным охлаждением. Из них собиралась такая стойка.

213.45 КБ

Однако, дальше горячий воздух уходит не в открытое пространство, а направляется в решётки сбоку, где стоят уже водяные радиаторы, по которым циркулирует холодная жидкость. Охлаждённый этими радиаторами воздух снова направляется на переднюю часть стойки. Таким образом, из шкафа воздух никуда не выходит, а циркулирует исключительно внутри него. Это очень удобно: уменьшает количество пыли на оборудовании и позволяет поставить сплошные дверцы, что снижает уровень шума в помещении настолько, что можно разговаривать, совершенно не напрягаясь. Обслуживающему персоналу в таких условиях работать комфортнее.
На каждой стойке находится индикатор с параметрами системы охлаждения для визуального контроля.

58.51 КБ

Система рециркуляции и частичного обновления воздуха работает так: воздух из серверной смешивается с воздухом, забираемом с улицы, очищается, охлаждается, доводится до нужной влажности и подаётся обратно в серверную.

155.08 КБ

Конечно, вычислительное оборудование это не всё, из чего состоит суперкомпьютер. Вот система хранения на жёстких дисках данных, к которым нужно часто обращаться.

154.20 КБ

А это архив данных, к которым обращаться часто нужды нет, поэтому запись идёт на магнитную ленту — да, до сих пор стриммеры это, пожалуй, самый дешёвый и надёжный способ сохранить большое количество архивной информации. Робот вытаскивает кассету из ячейки, перемещает в считывающе-записывающее устройство и потом возвращает кассету обратно в стойку. Объём этого весьма компактного хранилища — два петабайта.

215.12 КБ

Когда к серверу обращается пользователь, индикатор мигает. Видно, что работа кипит вовсю — лампочки горят почти постоянно.

84.59 КБ

Всего в сервере в 2011 году находилось 1680 вычислительных узлов, каждый из которых содержал один 4-ядерный процессор Xeon-3220.

69.97 КБ

Всё это соединено сетью Ethernet. Её скорости достаточно, так как несколько десятков мегабайт данных анализируются одним ядром в течение нескольких часов, при этом вычисления происходят изолированно, то есть нет нужды обращаться к соседнему узлу за какой-либо информацией.

203.21 КБ

На момент создания в 2008 году это был самый мощный суперкомпьютер на основе сети Ethernet.
Часть вычислений проводится на GPU — "графических" картах общего назначения.

119.93 КБ

В задачах того типа, которые требуются решать проекту, GPU показали себя очень хорошо, поэтому, возможно, дальнейшее наращивание вычислительной мощности этого комплекса будет происходить за счёт именно GPU, так как послендние несколько лет вычислительные мощности CPU растут слишком медленно.

Несмотря на всю масштабность этого детища высоких технологий, результирующая вычислительная мощность, которую жертвуют добровольцы по всему миру этому проекту, во много раз больше. Прикинем: пусть в институте находятся 2000 процессоров, каждое о 4 ядрах. Всего это 8000 ядер средней на нынешний момент производительности, которые работают круглосуточно. Допустим, вы жертвуете всего час-два работы одного своего пусть не очень быстрого ядра в день. Таким образом, 80 000 добровольцев посчитают за день столько же, сколько и этот монстр.Активных пользователей же в этом проекте — около 200 000. Причём, многие из них не скупятся отдать при простое компьютера куда больше, чем один ядро-час, а то и GPU не жалеют загрузить. Вот и получается: с миру по нитке(треду) — учёным открытия. Очень хочется написать какую-нибудь банальность в стиле "вместе — мы сила!", но вы и без этого, уверен, осознаёте мощь интернационального вычислительного социума. Интернет действительно преображает мир.

Последней будет фото вечернего вида из окна гостиницы в трёх минутах ходьбы от института Эйнштейна, чтобы подчеркнуть, что великие дела совершаются не только в центре мегаполисов, но и на вполлне спокойных малоэтажных окраинах.

191.62 КБ


P.S. всё снято с рук без штатива на Nikon D200



Date: 2014-11-20 06:01 am (UTC)
From: [identity profile] antontsau.livejournal.com
вода появляется, когда от рака до чиллера слишком далеко или слишком узко, и тянуть фреоновые трубы не хочется. Это очень дорого, зато позволяет махануть один мегачиллер где-то воооон там во дворе в будочке или на крыше, и все здание от него охлаждать.

Date: 2014-11-20 12:52 pm (UTC)
From: [identity profile] bad-cmpany.livejournal.com
А куда фреоновые трубы тянуть если чиллер рядом?

Date: 2014-11-20 01:15 pm (UTC)
From: [identity profile] antontsau.livejournal.com
а если рядом, то тогда и чиллер не нужен, можно и фреоном. Дешевле получается. У тяжелых фреоновых систем цена резко растет от роста расстояния (трубы высокого давления, сам фреон, проблемы при любом ремонте и тп), а у чиллера наоборот, высокая цена входа и практически все равно куда качать, хоть в соседнее здание, водяная труба она и есть водяная труба, ничего не стоит.

Date: 2014-11-20 05:00 pm (UTC)
From: [identity profile] bad-cmpany.livejournal.com
И что именно ставят, если без чиллера, а прямо фреоном?

Date: 2014-11-20 06:39 pm (UTC)
From: [identity profile] antontsau.livejournal.com
???? тяжелые мультисплиты и ставят. То, что называется "прецизионный кондиционер". Я не запаривался и ставил обычные коммерческие, панасоники всякие. Голова на крыше, внутри фанкойл(ы), блоки рассчитанные на работу в системах вентиляции, с подключением воздушных труб к ним.

Но у меня все-таки не коммцентры, не было критичным поддерживать это все 24/7, кондей навернется - ну, придется попрыгать, но в целом выживет пока его чинить будем, а полноценные системы и голов поддерживают несколько. Но если трубу где проткнуть, то фсьо, это не чиллер, который с правильной установкой такого не боится, участок изолируется, обход включается и потекло дальше, пока сантехи ремонтируют.

Date: 2014-11-20 08:52 pm (UTC)
From: [identity profile] bad-cmpany.livejournal.com
Не, обычный сплит - это не по феншую. Тут вот все правильно сделано- тепло уносится прямо из его источника. А позволять теплому воздуху смешиваться с холодным- профанация.

Date: 2014-11-20 09:48 pm (UTC)
From: [identity profile] antontsau.livejournal.com
так не обычный (настенник-кассетник, это каааалхоз, факт) а канальный же. Охлаждает воздух, циркулирующий в шкафу, без пыли и влаги, а не всю комнату. Надувает снизу, забирает сверху, охлаждает и так по кругу. Просто охлаждать можно водой, а можно прямо фреоном. Для мелких систем вода не оправдана, для крупных фреон становится дорог и стремен.

Date: 2014-11-21 02:56 am (UTC)
From: [identity profile] bad-cmpany.livejournal.com
А! с воздуховодами, тогда конечно нормально. А куда он вешается- на стену или прямо на рэк? И какие использовали (и следовало использовать еслиб денег не жалко было ;) )?

Date: 2014-11-21 05:49 am (UTC)
From: [identity profile] antontsau.livejournal.com
говорю же, канальник. Панасоник, на одном обьекте карриер (о как он меня достал, кондейщики полгода не могли его заставить мерить температуру в хоботе а не пульте. Пришлось запереть пульт внутрь шкафа), дайкин. Мне хватало. Если понтоваться то конечно надо ставить что-то промышленное прецизионнле, но на самом деле и так неплохо.

Штатный ритталий кондей мне кстати совсем не понравился. Тухлый, и малопонятно как от него воздух разводить. Он засасывает с крыши и тут же рядом выплевывает, в результате наверху 20 а внизу все равно 35. Пришлось колхозить трубы. А навесной на стенку и стоит как самолет, и непонятно как с ним быть на группе шкафов.

Кстати вылезла забавная проблема. Кондей прекрасно работает (если помыт-почищен-заправлен) при +40, но при -20 его хватает карачун. Не потому что масло, зимний аомплект поставлен, а потому что весь фреон лежит кучкой в наружнлм блоке и напрочь не желает оттуда испаряться. А если подлить побольше, то при потеплении взорвется. Так что для главной стерверной, где тепла много и кондей не спраалялся, пришлось строить параллельный пассивный обменник, тосол насосиком гоняется, на улице остывает до -20 и в фанкойл. Итого если -15 то работает эта хрень, если выше - работает кондей, сам включается потому что хрень перестает достаточно охлаждать..

Date: 2014-11-21 12:49 pm (UTC)
From: [identity profile] bad-cmpany.livejournal.com
Ясно, спасибо. Действительно забавно, что пришлось так извращаться в зимнее время. А забор воздуха (с минусовой температурой) с улицы нельзя было? Далеко тянуть?

Date: 2014-11-21 03:28 pm (UTC)
From: [identity profile] antontsau.livejournal.com
забор воздуха это коровник. Пыль, влага... Воздух в компутерном шкафу должен быть свой, циркулирующий.

Можно было бы устроить воздух-воздушный теплообмен, но это требует кучу места и жабаква.

Date: 2014-11-21 04:28 pm (UTC)
From: [identity profile] bad-cmpany.livejournal.com
Логично. Жабаква- это деньги что-ли?

Date: 2014-11-21 04:35 pm (UTC)
From: [identity profile] antontsau.livejournal.com
а то как же. Хороший теплообменник (да еще с фильтрами на входе, чтоб говном не забивался), да со всеми вентиляторами, да монтаж, там штук под 5 только разговор начинается. Кондей киловатт на 10-15 стоит 2-3К, эта установка с водовоздушным обменом мне обошлась в штуку (фанкойл внутрь, секция теплообменника наружу, вентилятор, водяные насосы от отопления и три тупых терморегулятора) и день работы по монтажу.

Profile

engineering_ru: (Default)
Инженерия

December 2025

S M T W T F S
 123456
78910111213
14151617181920
2122232425 2627
28293031   

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Apr. 23rd, 2026 11:41 am
Powered by Dreamwidth Studios