KAIST, 고효율 챗GPT 핵심 AI 반도체 개발

온종림 기자 | jrohn@naver.com | 기사승인 : 2023-08-04 10:04:11
  • -
  • +
  • 인쇄
김주영 교수팀, 고성능 GPU 보다 2.4배 효율성 높아

KAIST 김주영 교수연구팀이 개발한 LPU와 가속 어플라이언스.

 

[대학저널 온종림 기자] KAIST(한국과학기술원) 전기및전자공학부 김주영 교수연구팀이 챗GPT에 핵심으로 사용되는 거대 언어 모델의 추론 연산을 효율적으로 가속하는 AI(인공지능) 반도체를 개발했다.


4일 KAIST에 따르면 김 교수연구팀이 개발한 AI 반도체 ‘LPU(Latency Processing Unit)’는 거대 언어 모델의 추론 연산을 효율적으로 가속한다. 메모리 대역폭 사용을 극대화하고, 추론에 필요한 모든 연산을 고속으로 수행 가능한 연산 엔진을 갖춘 AI 반도체로, 자체 네트워킹을 내장해 다수개 가속기로 확장이 용이하다.


이 LPU 기반의 가속 어플라이언스 서버는 업계 최고의 고성능 GPU인 엔비디아 A100 기반 슈퍼컴퓨터보다 성능은 최대 50%, 가격 대비 성능은 2.4배 가량 높였다. 이는 최근 급격하게 생성형 AI 서비스 수요가 증가하고 있는 데이터센터의 고성능 GPU를 대체할 수 있을 것으로 기대한다.

김 교수연구팀은 이 연구로 현지 시간 지난달 12일 샌프란시스코에서 진행된 국제 반도체 설계 자동화 학회에서 공학부문 최고 발표상을 수상했다.

김주영 교수는 “미래 거대 AI 연산을 위한 새로운 프로세서 ‘LPU’로 글로벌 시장을 개척하고, 빅테크 기업들의 기술력보다 우위를 선점하겠다”고 밝혔다.

 

[저작권자ⓒ 대학저널. 무단전재-재배포 금지]

뉴스댓글 >