구글과 인텔이 효율성에 초점을 맞춘 인공지능(AI) 칩셋을 나란히 공개했다. 거대언어모델(LLM) 개발과 고도화에 막대한 전력이 필요한 만큼 효율이 높은 AI 칩 도입으로 비용을 절감할뿐 아니라 지속 가능한 AI 개발 토대를 마련하고 주도권을 확보하겠다는 전략이다.
구글과 인텔은 9일(현지 시간) 각각 ‘구글 클라우드 넥스트 2024’와 ‘인텔 비전 2024’ 행사를 열고 신형 중앙처리장치(CPU)와 AI 가속기(NPU·GPU)를 선보였다.
구글은 이번 행사에서 첫 ARM 기반 서버 CPU인 ‘액시온’을 공개했다. 구글은 ARM 기반 모바일 애플리케이션프로세서(AP) ‘텐서’ 시리즈를 설계해왔으나 서버용으로 자체 ARM CPU를 선보인 것은 이번이 처음이다. ARM CPU는 높은 전성비(전력 대비 성능)로 인해 최근 데이터센터에 적용하는 사례가 늘고 있다. 구글은 액시온이 서버·PC용 주류 CPU인 ‘x86’ 계열의 현 세대 제품보다 속도가 최대 50% 빠르고 에너지 효율이 60% 높다고 밝혔다. 이미 구글어스엔진·유튜브 광고 등 자체 서비스에 액시온을 사용 중인 구글은 향후 외부 업체에도 액시온 기반 클라우드를 공급할 계획이다.
구글은 지난해 말 공개한 AI 가속기 TPU(텐서처리장치) ‘v5p’도 실제 적용했다고 밝혔다. TPU v5p는 8960개 칩이 한데 묶인 ‘팟(Pod)’ 형태로 제공된다. 한 팟 기준 전 세대보다 4배 빠르고 달러당 성능을 기준으로 한 운용 효율은 2.1배 높다.
구글이 반도체 설계 역량을 확대하는 배경에는 AI 모델부터 반도체까지 고객사가 원하는 모든 종류의 인프라를 제공하겠다는 생태계 확장 철학이 담겨 있다. 윌 그래니스 구글클라우드 최고기술책임자(CTO)는 “구글의 ‘북극성(지향점)’은 모든 사람이 AI를 최대한 활용하는 것”이라며 “서비스 생산 단계로 넘어 갈수록 효율성과 인프라가 클라우드 플랫폼 선택 주요 고려 사항이 된다"고 설명했다.
인텔도 지난해 공개한 GPU ‘가우디3’를 올 2분기 중 델·HPE·레노버·슈퍼마이크로 등 주요 서버 제조사들에 납품한다고 밝혔다. 가우디3는 엔비디아의 ‘H100’보다 추론 성능이 최대 50% 높다. ‘라마 70B’와 ‘팔콘 180B’ 등 대형 AI 모델에서 전력 효율도 40% 더 좋다. 팻 겔싱어 인텔 최고경영자(CEO)는 “하나의 대기업이 시스템을 장악하는데 질리지 않았느냐”며 가우디3가 엔비디아의 대안이 될 수 있음을 강조했다. 이번 행사에서 가우디를 사용한 AI 개발 사례로 네이버 ‘하이퍼클로바X’가 소개돼 주목을 끌었다.
인텔은 코드명 ‘시에라 포레스트’인 서버용 CPU ‘제온6’도 공개했다. 제온6는 저전력 고효율 E버전인 시에라 포레스트와 전력 소모가 큰 대신 성능이 더 높은 P버전 ‘그래나이트 래피즈’로 구분된다. 이날 인텔은 고효율 버전인 시에라 포레스트를 2분기 내 우선 출시하겠다고 밝혔다. CPU 시장의 최강자인 인텔까지 고성능보다 고효율을 출시 우선순위에 둔 것이다. 시에라 포레스트는 인텔 3나노 공정에서 제조된다. 이전 세대 제온 CPU 대비 전력당 성능이 2.4배 높고 같은 공간에 2.6배 더 많은 칩셋을 넣을 수 있다. 인텔은 “구형 시스템을 약 3대1 비율로 교체할 수 있어 에너지 소비를 대폭 낮출 수 있다”고 설명했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >