Ñ Ðµ м а Ñ Ðµ м а н о м е Ñ Ð° - ÐкÑ
Ñ Ðµ м а Ñ Ðµ м а н о м е Ñ Ð° - ÐкÑ
Ñ Ðµ м а Ñ Ðµ м а н о м е Ñ Ð° - ÐкÑ
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
т е м а н о м е р а<br />
что по нынешним временам представляется расточительностью.<br />
Коэффициент PUE недавно был официально<br />
принят в качестве единой оценки энергоэффективности<br />
дата-центров в США, Европе и Японии.<br />
Фрикулинг и другая экзотика<br />
Вполне преуспели в снижении энергопотребления<br />
дата-центров разработчики технологий виртуализации<br />
(правда, заметный выигрыш они дают лишь при работе<br />
с определенными приложениями, поэтому подходят<br />
не всем) и производители систем охлаждения с поддержкой<br />
режима фрикулинга, т.е. свободного охлаждения<br />
внешним воздухом, без компрессоров. Кстати, продвижению<br />
фрикулинга может помочь новый стандарт<br />
ASHRAE, расширивший допустимый диапазон температур<br />
на входе сервера с 20–25 до 18–27°С. По идее Россия<br />
с ее нежарким климатом может стать территорией<br />
почти полного фрикулинга. Правда, системы охлаждения,<br />
поддерживающие режим фрикулинга или полностью<br />
работающие в этом режиме, как минимум на 30%<br />
дороже обычных фреоновых DX-систем. Да, их PUE заметно<br />
ниже, и электроэнергии они потребляют существенно<br />
меньше, но амортизационные расходы и российские<br />
цены на электричество, которые пока ниже,<br />
чем в Европе, приводят к тому, что выигрыш в ТСО наступает<br />
не так быстро. как хотелось бы инвесторам. Но<br />
будущее, безусловно, за фрикулингом.<br />
Вообще дело снижения энергопотребления и минимизации<br />
PUE принимает иногда довольно причудливые<br />
формы. Например, недавно в Хельсинки начал работу<br />
новый дата-центр в большой пещере под местным собором.<br />
Тепло, выделяемое его серверами, используется в<br />
городской сети центрального отопления для подогрева<br />
воды, и таким способом планируется экономить около<br />
$560 тыс. в год на оплате электроэнергии. В Стокгольме<br />
в одном из бункеров, построенном во времена «холодной<br />
войны», на глубине 30 м под землей теперь находится<br />
ЦОД одного из крупнейших Интернет-провайдеров<br />
Швеции. Компания HP не стала лезть под землю, а построила<br />
дата-центр в Великобритании на берегу Северного<br />
моря. В нем в системе охлаждения используется холодный<br />
морской воздух и технология фрикулинга, в результате<br />
чего PUE объекта составляет всего 1,2. Это крупный<br />
ЦОД с четырьмя серверными залами общей площадью<br />
более 33 тыс. м 2 , поэтому экономия на электричестве заявлена<br />
очень солидная – порядка $4 млн в год.<br />
Отечественный PUE стремится к 1<br />
Приятно отметить, что разработками в области фрикулинга<br />
и снижения ТСО дата-центров, причем довольно<br />
успешно, занимаются и российские специалисты. Недавно<br />
компания Stack Labs предложила новую концепцию<br />
строительства ЦОДов. Она предполагает быстрое создание<br />
модульных дата-центров заданной мощности и необходимого<br />
уровня надежности в том месте, где это нужно<br />
в данный момент. Полнофункциональным «квантом»<br />
такого ЦОДа является модуль КУБ: название отражает не<br />
форму (размеры модуля составляют 24х6х7м), а концепцию<br />
сборки из «кубиков» дата-центров разной конфигурации.<br />
Установив один КУБ, можно потом добавлять к<br />
нему новые модули и их блоки, увеличивать нагрузку и<br />
уровень Tier, не останавливая работы дата-центра, что в<br />
случае традиционного ЦОДа просто невозможно.<br />
Создатели постарались максимально упростить конструкции<br />
всех систем и уменьшить количество их элементов<br />
(в дата-центре нет трубопроводов, внутренних<br />
блоков кондиционеров и аккумуляторных батарей).<br />
Причем, как подчеркнул генеральный директор Stack<br />
Group Сергей Лысаков, все собрано из вполне доступных<br />
на российском рынке деталей. Модуль состоит из<br />
трех блоков: небольшого серверного зала на 20–25 стоек,<br />
коридора для доступа к стойкам и системы охлаждения<br />
новой конструкции с роторным теплообменником<br />
от Kyoto Cooling. Когда позволяет температура за<br />
бортом, система охлаждения работает в режиме фрикулинга,<br />
а когда на улице слишком жарко, то включаются<br />
чиллеры. Интеллектуальная система управления<br />
на основе данных системы мониторинга регулирует<br />
работу всех систем дата-центра в реальном времени<br />
в соответствии с нагрузкой и тем самым вносит свой<br />
Концепт ЦОДа от Stack labs в ночных огнях: красный свет – помещения<br />
с горячим воздухом, синий – с холодным.<br />
вклад в минимизацию PUE. Уже построен первый демонстрационный<br />
образец КУБа с подведенной (от<br />
ДГУ) мощностью 300 кВт. В ходе испытаний при температуре<br />
за бортом +18°С PUE этого дата-центра равнялся<br />
1,02(!), а когда на улице было +27°С и в охлаждении<br />
участвовали чиллеры, PUE составлял 1,24.<br />
ЦОДы и серверные помещения<br />
Строительство под ключ<br />
Проектирование<br />
Тел.: (495) 665-62-00<br />
www.datadome.ru<br />
реклама<br />
29<br />
ф<br />
окус