전자. 통신

■ GPU 보다 50% 향상된 국산 AI 반도체 LPU 개발

마도러스 2023. 8. 8. 07:49

 

■ GPU 보다 50% 향상된 국산 AI 반도체 LPU 개발

● KAIST, 추론 연산 고속 수행 'LPU' 개발, 고성능 GPU 대체

★ KAIST 전기 전자공학부 교수 김주영 연구팀은 기존 AI 반도체 보다 가격 대비 성능이 2.4배 향상된 AI 반도체 'LPU'를 개발했다고 2023년 08월 04일 밝혔다. LPU (Latency Processing Unit)는 거대 언어 모델의 추론 연산을 대기 잠복 시간 (latency time) 단축하여 효율적으로 가속한다. 생성형 AI인 '챗GPT'와 같은 거대 언어 모델의 추론 연산에 활용할 수 있는 국산 AI반도체 기술이 개발된 것이다. 앤비디아의 고성능 GPU에 비해 성능이 뛰어나고, 가격 대비 성능도 좋아 향후 거대 AI 연산을 위한 AI 반도체로 쓰일 것으로 기대된다. 챗GPT는 거대 언어 모델을 기반으로 하기 때문에 기존 AI와 달리 방대한 규모의 AI 모델로, 대규모 데이터 연산을 위해 수많은 고성능 GPU (그래픽 처리장 치)가 필요해 천문학적 비용이 든다.

 LPU (Latency Processing Unit)는 메모리 대역폭 사용을 높이고, 추론에 필요한 모든 연산을 고속으로 수행할 수 있는 대기 잠복 시간 (latency time) 단축 연산 엔진을 갖추고 있다. 이런 특성으로 LPU 기반 가속 어플라이언스 서버는 업계 최고 성능인 GPU인 엔비디아 A100 기반 슈퍼컴퓨터 보다 성능이 최대 50% 가량 뛰어나다. 가격 대비 성능도 2.4배 가량 높다. 최근 급격하게 늘어나고 있는 생성형 AI 서비스 수요에 따라 고성능 GPU를 대체할 수 있을 것으로 연구팀은 기대했다.

★ 이와 관련 연구팀은 2023년 07월 미국 샌프란시스코에서 열린 국제 반도체 설계 자동화 학회에서 LPU (Latency Processing Unit)를 선보여 공학 부문 최고 발표상을 수상했다. 국제 반도체 설계 자동화 학회에는 인텔, 엔비디아, AMD, 구글, 삼성, TSMC 등 세계적 반도체 기업들과 하버드대, MIT, 스탠퍼드대 등 세계 최고 대학들이 참여했다. 김주영 KAIST 교수는 "미래 거대 AI 연산을 위한 새로운 프로세서LPU (Latency Processing Unit)를 기반으로 글로벌 AI 반도체 시장을 개척하고, 빅테크 기업들의 기술력보다 우위를 선점할 수 있도록 연구를 이어가겠다"고 말했다. 한편 이번 연구는 김주영 교수가 창업한 하이퍼엑셀을 통해 진행됐다.

■ 남이 보지 못하는 것을 보는 것이 비젼(Vision)이다. ★ 건강 관련 자료 및 혁신적인 문화 소식을 소개하고 공유하고자 합니다. ★ 그래서, → ★★ 젊음(靑春), 생명공학의 열망(熱望)! 네이버 밴드로 초대합니다. → http://www.band.us/#!/band/55963286