2024.11.22 (금)

  • 맑음동두천 10.0℃
  • 구름많음강릉 9.4℃
  • 맑음서울 10.1℃
  • 맑음대전 12.1℃
  • 맑음대구 14.1℃
  • 맑음울산 13.3℃
  • 맑음광주 13.3℃
  • 맑음부산 15.5℃
  • 맑음고창 11.1℃
  • 구름많음제주 14.2℃
  • 맑음강화 9.3℃
  • 맑음보은 10.6℃
  • 맑음금산 12.2℃
  • 맑음강진군 13.9℃
  • 구름조금경주시 14.2℃
  • 맑음거제 13.4℃
기상청 제공
메뉴

제로에너지건축물인증 - 비주거부문(데이터센터) 분석

  • 기자
  • 등록 2024.11.18 17:08:41
  • 조회수 14

㈜잘그린건축연구소

최근 AI의 발전과 함께 데이터 센터 설립과 안정적인 에너지 공급이 중요한 이슈로 올라오고 있다. 탄소중립의 실현을 하기 위해서 건물 분야의 에너지를 적게 쓰게 만드는 방식이 중요해지고 있는데, 데이터 센터 및 서버실을 운영하기 위한 에너지 사용이 점차 증가하고 있는 것도 현실이다. 특히 많은 건물이 모여있는 서울 같은 도시는 ‘건물 온실가스 총량제’를 도입하면서도 건물에서 사용되는 에너지와 온실가스를 줄이려고 하는데 이와 같은 방향에 역행하는데 건물과 신사업을 바라보는 현실이기도 하다. 또한 제로에너지건축물이 2025년부터 의무화되어, 건물 분야에서 필요한 에너지 절감은 더욱 절실해지는데 이를 위한 해법이 필요한 상황이다.

 

그림 1 - 제로에너지건축물 의무화 로드맵(출처: ZEB 인증 관련 설명회 안내자료
※출처: 한국에너지공단(2024년 5월)


2024년 1월 IEA(International Energy Agency) 보고서에 따르면 데이터 센터, AI, 암호화폐가 전 세계 총 전기 수요의 약 2%(460TWh)에 해당하는 전기를 사용한 것으로 나타났다. 여기서  Low, Base, High 세 가지 케이스로 전망했는데, AI 사용의 급증으로 인해 High 케이스로 갈 가능성이 높은 것으로 전망했다.

 

그림 2 - 데이터 센터, AI, 암호화폐로 인한 글로벌 전기 수요, 2019-2026
※출처: 2024년 1월 IEA 보고서


데이터 센터의 전기 수요는 크게 컴퓨팅(데이터 처리), 서버 냉각, 기타 IT 장비(전원공급 시스템, 저장장치, 통신장비 등)로 구분되며 전기 수요 비율은 컴퓨팅 40%, 서버 냉각이 40%, 기타 IT 장비가 20%로 나타난다.

 

그림 3 - 데이터 센터의 전기 수요 비율
※출처: 2024년 1월 IEA 보고서 참고하여 연구진 작성


데이터 센터의 에너지 효율을 개선하는 방안 역시 각 기관에 의해 크게 중요해지고 있다. 크게 데이터를 저장하고 처리하는 기기의 고성능화, 고효율의 냉각 시스템 적용, 데이터 센터 운영 최적화를 통해 에너지 효율 개선 방안의 연구가 이루어지고 있다.

 

표 1 - 데이터 센터 에너지 효율 개선 방안
※출처: 2024년 1월 IEA 보고서 참고하여 연구진 작성


데이터 센터는 비단 우리나라만의 고민은 아니고, 결국 많은 국가에서 데이터 센터의 에너지사용에 대해서 관리 및 에너지를 줄일 수 있는 제도도 운용하고 있듯이 키워야 하는 산업과 탄소중립을 이루어야 하는 국가별 상황이 첨예하게 마주하고 있다. 

 

표 2 - 데이터 센터 에너지 소비 억제를 위한 각국의 대처
※출처: 2024년 1월 IEA 보고서 참고하여 연구진 작성


데이터 센터의 냉각 시스템은 초기에는 공랭식 개념을 기초로 하였다. 컴퓨터와 서버가 있는 랙 Rack: 서버 머더보드(CPU/GPU 탑재)가 수없이 많이 꽂혀있는 1개의 모듈 사이에서 가열된 공기가 전산실 공조시스템에서 냉각되어 다시 차가운 공기를 랙으로 공급하는 방식이다. 사무실의 에어컨과도 별반 다를 것 없는 개념이다. 

 


그림 4 - CRAC(Computer Room Air Conditioning) 방식 개념도
※출처:ComputerWeekly(2011), https://www.computerweekly.com/tip/CRAC-unit-sizing-Dos-and-donts


초기 데이터 센터는 랙 당 전력 밀도가 6~10kW 정도로 낮았지만, 최근 지어지고 있는 데이터 센터는 랙 당 30~40kW, 장기 프로젝트로는 60kW짜리로 고려되는 등 점점 랙의 밀도가 증가하고 있다.

 

그림 5 - 데이터 센터 AI워크로드 개요
※출처: 슈나이더 일렉트릭 홈페이지


공랭식 냉각은 전력 밀도가 랙 당 20kW가 넘으면 효율이 급감하기 시작하고, 랙 당 50kW가 넘으면 공랭식으로는 냉각이 불가하여 다른 방식의 냉각 시스템에 대한 연구가 이루어지고 있다.

대표적으로 이야기 나오는 것은 수랭식 냉각 시스템이다. 수랭식은 공랭식보다 열전도율이 높아 빠르게 열을 식혀줄 수 있으며, 같은 양의 에너지를 흡수할 때 그 밀도가 더 크고 비열 또한 더 높다. 수랭식은 크게 두 가지로 구분되는데 D2C(Direct to Chip) 냉각과 액침냉각이 있다. 

 

표 3 - 수랭식 냉각 시스템 구분


공랭식에 비해서 액침냉각이나 D2C 냉각은 전력 효율이 좋아지는 장점이 있으나, 이를 구현하기 위한 독특한 기술이 더 필요하다. 

 

표 4 - 데이터 센터 서버 룸 냉각 방식의 비교
※출처: 한국데이터센터연합회(2024), 차세대 데이터 센터 서버 냉각을 위한 액침냉각 솔루션 시장동향


2010년 전후로 현대화된 액침냉각 시스템 초기 버전 개발이 시작되었으며, 이후 10여 년간 몇몇 해외 업체를 중심으로 액침냉각 시스템이 개발되었고, 국내에서는 2019년부터 연구를 시작했고, 2022년 SK엔무브가 GRC에 2,500만 달러 투자를 하면서 널리 알려지기 시작했다.

 

그림 6 - 알리바바와 마이크로소프트에서 적용한 액침냉각 시스템
※출처: 한국데이터센터연합회(2024), 차세대 데이터 센터 서버 냉각을 위한 액침냉각 솔루션 시장동향


일부 기업에서는 완전 액침 냉각에 대한 실험도 진행되어, 서버를 냉각하는 방식이 건물 밖에서 진행되기도 했다. 

 

표 5 - 완전 액침 냉각 실험 사례
※출처(좌): 글로벌이코노믹(2024), https://www.g-enews.com/article/Global-Biz/2024/06/202406240201279766e8b8a793f7_1
※출처(우): ZDNET(2024), https://zdnet.co.kr/view/?no=20240227112545


미국 데이터 센터 전문기관인 Uptime Institute에서 2024년 2~3월에 전 세계 데이터 센터 관계자 964명을 대상으로 조사한 결과, 22%가 D2C와 액침냉각을 포함한 수랭식 냉각을 적용하고 있으며, 61%는 적용을 고려 중인 것으로 조사되었다. D2C 방식이 액침냉각보다 적용 사례가 많은 것으로 나타났으며 이는 아직 액침 전용 서버의 개발이 부진하기 때문으로 판단된다. 수랭식 냉각을 도입하는 기준이 되는 전력 밀도는 20~29kW/Rack이라는 응답자가 29%를 차지하였으며, 도입 목적은 고밀도/고전력 서버 대응, 전기료 절감 및 친환경 목적 순으로 응답하였다.

 

그림 7 - 글로벌 수랭식 냉각 적용 현황(Uptime Institute 2004 Cooling System Survey)
※출처: 한국데이터센터연합회(2024), 차세대 데이터 센터 서버 냉각을 위한 액침냉각 솔루션 시장동향


국내에서도 ESG 측면에서 데이터 센터의 에너지 효율 향상을 위해 통신 3사(SK, KT, LG), IT 기업(삼성전자, 네이버, 카카오 등), 냉매 제조자(GS칼텔스, S-OIL, SK엔무브, 미창석유공업 등)들이 고효율 친환경 냉각 솔루션의 필요성을 인식하고 액침냉각 관련 기술개발 및 사업화에 큰 노력을 하고 있다. 

단기적으로 데이터 센터 전체의 냉각 시스템을 교체하는 것은 비용이 많이 들고 이미 많은 데이터 센터가 공랭식으로 설계되어, 기존 공랭식에 수랭식 시스템을 추가하거나, 공랭식과 수랭식의 장점을 모은 하이브리드 방식도 연구되고 있다.

 

표 6 - 하이브리드 냉각 시스템 구분
※출처(좌): HelloT(2024), https://www.hellot.net/news/article.html?no=87007
※출처(우), OCP Global Summit(2023), https://www.youtube.com/watch?v=1MAE9fJupP0

 

또한 지열 냉각 시스템 역시 고려되고 있다. 장비에서 발생하는 열은 유체로 전달되어 지하 열교환기를 통해 순환, 유체는 열교환기를 통과하면서 냉각되고, 다시 데이터 센터로 돌아와 장비를 냉각시키는 방식이다. 지열 냉각 방식은 에너지 소비와 물 소비를 크게 줄일 수 있으며, 데이터 센터 장비의 신뢰성을 개선하는 데도 도움이 되는 것으로 보고 있다.

 

그림 8 - 데이터 센터 지열 냉각 개념도
※출처: VRCOOLER 홈페이지(2018), http://ko.vrcoolerar.com/news/how-many-types-of-data-center-cooling-systems-12285333.html


이와 유사하게 폐열을 활용한 방안도 적극적으로 검토되고 있다. 데이터 센터에서 발생하는 열을 흡수한 액체가 다른 건물의 바닥을 가열해 난방하고, 열을 전달한 후 식은 액체는 다시 데이터 센터로 돌아와 컴퓨터를 식히는 방식 등 열을 식히지 않고 열에너지 자체를 활용하는 방법도 사용 중이다. 이 방식은 데이터 센터가 도심 가까이 위치해 비즈니스나 통신적으로도 유리하며, 다른 데이터 센터 대비 에너지 소비를 40%까지 절감할 수 있다고 설명했다.

 

그림 9 - 노르웨이 신도시 ‘Lyseparken’의 스파크 파워 시티 구성도
※출처: TECHWORLD(2019), https://www.epnc.co.kr/news/articleView.html?idxno=91062


폐열을 저온수로 회수하여 히트펌프로 이동, 히트펌프를 통해 저온수에서 54℃의 온수로 전환되어 지역난방으로 이용하는 방법도 사용 중이다. 데이터 센터의 폐열을 지역난방에 이용하는 기업으로는 마이크로소프트, 메타 등이 있고 폐열을 건물 내 난방에 이용하는 기관으로는 미국 국립재생에너지연구소(NREL)가 있다. 

 

그림 10 - Bahnhof사 Pionen 데이터 센터의 폐열 활용
※출처: 대학생신재생에너지기자단(2020), https://renewableenergyfollowers.org/2962


미국 냉난방공조학회(ASHRAE) 가이드라인을 보면 350W 이상 발열량을 가지는 CPU 칩은 수랭식이 공랭식에 비해 효과적이라고 제시한다. 2023년 Intel에서 350W CPU 칩인 Shapphire Rapids가 출시되었다. GPU칩 발열량은 더욱 커서 NVIDIA가 2022년 공개해 현재 양산 중인 H100 칩은 700W, 올해 3월에 공개된 AI GPU Blackwell은 1,200W에 달한다.

 

그림 11 - CPU 열설계전력 증가 로드맵과 냉각 방식의 변화
※출처: 한국데이터센터연합회(2024), 차세대 데이터 센터 서버 냉각을 위한 액침냉각 솔루션 시장동향


액침냉각은 고유의 강점을 바탕으로 꾸준히 증가하는 데이터 센터 수요와 맞물려 시장이 확대되고 있다. 글로벌 시장조사기관인 Markets and Markets와 Global Market Insight 모두 향후 액침냉각 시장이 급격히 성장할 것이라는 방향성에 대체로 시각이 일치했다.

 

그림 12 - 글로벌 액침냉각 시장 전망
※출처: Immersion Cooling Market(2024), MARKETS AND MARKETS


전력계통과 수요 기업과의 거리가 멀어질수록 관리 비용이 증가함에 따라 데이터 센터는 도심안에 위치할 가능성이 높다. 그러나 서버 냉각이 데이터 센터 전기 사용량의 약 40% 수준에 육박하고 에너지를 많이 사용해야 하는 상황은 도시에게 그다지 반가운 상황은 아니다. 지속적으로 전력망을 확대하던가, 아니면 자체적인 에너지를 생산해야 하나 에너지 생산시설이 도시안에 자리잡기 쉬운 상황도 아니기 때문이다. 그리고 데이터 센터는 냉각 효율의 문제와 칩의 기술이 올라갈수록 공랭식이 아닌, 수랭식 방안이 선택될 것으로 보인다. 
현재는 서버실 등 시설을 공랭식으로 하다 보니 제로에너지건축물 인증 등 건물 에너지 평가를 할 때 건물 내 단위공간의 냉방 에너지를 사용하는 것으로 평가한다. 건축물의 에너지 평가 시 냉방, 난방, 급탕, 환기, 조명에 대해서 다루고 있기 때문이다. 위 5대 에너지가 아닌 설비나 운송에너지 같은 내용은 평가 요소로 아직 다루고 있지 않다. 그러다 보니 데이터 센터가 점차 수랭식으로 변경된다면 더 이상 기존 공랭식에 따른 평가 요소가 아닌 수랭식에 맞는 평가방안도 준비되어야 할 것으로 보인다.