이미지 확대보기이상준 네이버클라우드 최고정보책임자(CIO)는 27일 세종시에 위치한 네이버 각 세종 데이터센터에서 열린 기자간담회에서 “AI 인프라의 경쟁력은 GPU를 얼마나 많이 확보하는가를 넘어 확보한 자원을 얼마나 안정적이고 효율적으로 운영하는지에 달려 있다”며 “축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들겠다”고 말했다.
이상준 CIO는 “네이버 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라”라며 “이처럼 인프라를 하나의 시스템으로 통합적으로 설계·운영할 수 있는 역량은 국내는 물론 글로벌에서도 손꼽힌다”고 강조했다.
회사 측에 따르면 각 세종은 기존 인터넷데이터센터(IDC)가 수행하던 저장·처리 기능을 넘어 AI 학습과 추론이 동시에 이뤄지는 고밀도 GPU 연산 공간으로 설계됐다. 이를 위해 전력과 냉각 효율, 무정지 운영까지 모두 고려해 AI 인프라가 24시간 안정적으로 작동할 수 있는 환경을 구축했다.
AI 연산이 집중되는 데이터센터에서 가장 중요한 요소는 발열 관리다. GPU 전력 밀도가 높아지면서 냉각은 효율과 안정성을 좌우하는 핵심 요소로 부상했다. 이에 각 세종은 ‘각 춘천’ 운영으로 축적한 실데이터와 열환경 분석을 바탕으로 직접외기, 간접외기, 냉수를 병행하는 하이브리드 냉각 시스템을 적용했다.
이미지 확대보기또한 액침냉각 컨테이너 인프라를 구축해 냉각 용액의 안정성, 에너지 효율, 운영 안정성 등을 검증 중이다. 이를 기반으로 네이버클라우드는 고전력·고밀도 환경에 대응하는 차세대 냉각 기술 로드맵을 구체화하고, 수냉식 서버 냉각 관련 자체 특허도 출원 완료했다. 각 세종은 장애 상황에서도 서비스가 멈추가 않도록 이중화 구조(Active–Active Architecture)로 설계됐다.
네이버는 이러한 운영 기술을 GPU 뿐 아니라 데이터센터 전반의 인프라 관리 영역으로 확장하며 복잡한 AI 워크로드 환경에서도 예측 가능한 인프라 운영을 실현하고 있고, 향후 AI 기술을 활용해 운영 효율을 지속적으로 고도화해 나간다는 계획이다.
네이버의 AI 플랫폼은 이같은 인프라 기반으로 운영되고 있다. 모델 개발부터 학습, 추론, 서빙까지 AI의 전 과정을 하나로 연결하는 통합 운영 체계로 작동한다. 내부적으로는 ‘하이퍼클로바’ 학습과 운영이 모두 이 플랫폼 위에서 이루어지며 GPU 자원 배분, 모델 관리, 스케줄링까지 통제된다.
네이버클라우드는 이렇게 내부에 축적한 기술과 운영 역량을 기반으로 GPUaaS 모델을 통해 국내 주요 기업에 AI 인프라 서비스를 제공하고 있다.
이상준 CIO는 “네이버클라우드는 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것”이라며 “이를 통해 AI 인프라가 특정 기업의 자산을 넘어, 산업 전반의 성장 기반이 될 수 있도록 하겠다”고 밝혔다.
정채윤 한국금융신문 기자 chaeyun@fntimes.com
[관련기사]
가장 핫한 경제 소식! 한국금융신문의 ‘추천뉴스’를 받아보세요~
데일리 금융경제뉴스 Copyright ⓒ 한국금융신문 & FNTIMES.com
저작권법에 의거 상업적 목적의 무단 전재, 복사, 배포 금지











