한국 팹리스에 다시 찾아온 기회, AI 반도체?
ChatGPT로 시작된 인공지능 열풍이 반도체 산업으로 이어지고 있습니다. 절호의 기회를 맞아 드디어 한국도 글로벌 스타 팹리스를 탄생시킬 수 있을까요? 국내 AI 반도체 스타트업들의 전략과 방향성에 대해 알아보겠습니다.
한국의 팹리스(Fabless) 산업은 오랜 기간 암흑기에 있었습니다. 2000년대 초 모바일 시장의 성장과 함께 삼성전자, LG전자와 같은 대형 Set 업체를 고객으로 칩 부품을 판매하는 팹리스 업체가 많이 등장했습니다. 엠텍비전, 코아로직 같은 스타 팹리스들도 탄생했죠. 하지만 국내 대기업에 크게 의존했던 이 회사들은 해외 진출에 실패했고, 시대의 흐름에 맞는 신규 제품을 출시하지 못하며 우리의 기억에서 사라졌습니다.
국내에는 LG디스플레이에 디스플레이 구동칩을 납품하는 LX세미콘(전 실리콘웍스, 2014년 LG그룹에 인수)을 제외하면, 시가총액이 1조가 넘는 팹리스가 없습니다. 나름 오랫동안 좋은 성과를 보여주었던 어보브반도체나 텔레칩스의 시가총액이 2,000억원 내외임을 감안하면, 팹리스는 투자 매력이 떨어지는 산업이라는 주장은 부정하기 어려운 사실인 것 같습니다.
투자 유치의 어려움은 구조적인 악순환을 만들어냅니다. 팹리스 산업은 생각보다 상당히 노동 집약적인 특성을 갖습니다. 적절한 투자를 유치해 충분한 인력을 투입해야 좋은 제품을 만들 수가 있는데요. 투자를 받지 못한 회사들은 인력 유치에 어려움을 겪고, 개발 제품의 경쟁력은 점점 떨어집니다. 글로벌은 커녕 국내에서 판로를 개척하기도 어려운 상황이 되고, 제한되어버린 외형 성장은 다시 투자를 어렵게 하는 요인으로 작용합니다.
최근 오랜 암흑기를 지나 팹리스 산업이 다시 주목을 받고 있습니다. AI나 자동차 같이 새롭게 꿈틀대는 산업에서 기회를 노리는 회사들이 많아진 덕인데요. 그중에서도 오늘은 많은 화두가 되고 있는 AI 반도체에 대해 제 생각을 이야기 해보겠습니다.
GPU보다도 AI 연산에 특화된 칩, AI 반도체
AI 모델의 학습과 추론에는 엄청나게 많은 반복 연산이 필요합니다. 보통 컴퓨터의 연산은 CPU가 담당하는 경우가 많은데요. CPU는 순차적으로 연산을 처리하기 때문에, 다량의 연산을 한번에 처리해야 하는 AI 모델에는 적합하지 않습니다. 반면 GPU는 디스플레이 상의 수많은 픽셀값을 반복적으로 계산하기 위한 병렬 연산 장치로, AI 연산에 꽤나 적합합니다. 오랫동안 AI 모델 개발에는 GPU가 널리 사용되었으며, 아직까지, AI용 프로세서 시장의 80% 가량을 NVIDIA의 GPU가 차지하고 있습니다.
AI 반도체는 GPU와 같이 병렬처리에 장점이 있으면서도 좀 더 AI 모델에 특화된 칩을 말합니다. 실제 설계를 본적이 없어 정확히는 모르겠으나, AI 모델에서 자주 사용되는 연산들을 회로로 구현함으로써 소프트웨어를 거쳐 연산하는 것 대비 빠른 속도로 동작 가능하도록 만든 것이 골자가 아닐까 싶습니다.
AI 반도체는 용도에 따라 다음과 같이 분류할 수 있는데요. 실제 사업 모델이나 타겟 고객이 크게 다르니 머리에 넣어두면 좋을 것 같습니다.
데이터센터용 AI 칩
데이터센터에서는 AI 모델의 학습이 이루어짐. 다량의 데이터에 대한 학습 연산이 필요하기 때문에, 고성능이 요구됨. 클라이언트가 아닌 서버에서 추론을 담당하는 경우도 많기 때문에, 학습과 추론을 모두 수행해야 함.Edge Device용 AI 칩
인공지능 스피커, 인공지능 CCTV, 자율주행 로봇과 같은 최종 제품용 AI 칩. 학습이 완료된 AI 모델을 탑재하여 추론만을 수행하는 경우가 많음 (ex. 테슬라 차량에 탑재되는 FSD 칩). 데이터센터용 AI 칩처럼 대용량 데이터 학습은 어려움.
AI 반도체 개발에 뛰어든 국내 팹리스들
국내 스타트업 씬에서도 종종 AI 반도체 회사들을 만날 수 있습니다. 많은 회사들이 데이터센터용 AI 칩의 개발을 목표로 하고 있으며, NVIDIA와 직접 경쟁을 예고하고 있습니다. 범용 칩보다는 고빈도매매(HFT)나 컴퓨터 비전과 같이 특정 도메인을 타겟하는 전략을 취하고 있는 회사도 보입니다.
아직까지 뚜렷한 재무적 성과를 보여주는 회사는 많지 않은 것 같습니다. 다만 데이터센터를 보유하고 있는 CSP, 통신사 등과 전략적인 협력 관계를 구축하고 있는 회사들이 점점 많아지고 있는 것은 긍정적입니다.
리벨리온 : 금융회사 특화, 데이터센터용 칩, KT가 투자
퓨리오사 : 컴퓨터비전 특화, 데이터센터용 칩, NHN이 투자
사피온 : 데이터센터용 칩, SK그룹 계열사
모빌린트 : Edge Device용 칩
네이버-삼성전자 컨소시엄
딥엑스, 디퍼아이, 유엑스팩토리, ...
데이터센터용 AI 칩을 개발하는 국내 팹리스들이 해외로도 판로를 개척할 수 있을지는 지켜봐야 할 것 같습니다. 구글, 아마존을 비롯해 대부분의 빅테크들도 자체 칩을 개발해 데이터센터에 사용하는 추세이고, 잘은 모르지만 해외 고객사들도 이미 미국, 중국, 대만의 AI 칩 회사들과 전략적으로 협력하고 있지 않을까 하는 걱정이 듭니다.
ChatGPT가 불러온 AI 반도체의 변화
트랜스포머(Transformer) 모델 기반으로 만들어진 서비스인 ChatGPT는 AI 모델의 개발 패러다임이 완전히 변화했음을 확인시켜주었습니다. 우리는 앞으로 많은 AI 모델들이 트랜스포머를 활용한 거대 모델로 진화할 것이라 예측할 수 있게 되었습니다.
그리고 AI 모델 개발의 큰 흐름이 바뀌었다는 것은 AI 반도체의 개발 전략 또한 수정될 필요가 있다는 이야기기도 합니다. AI 반도체는 결국 AI 모델을 쉽게 개발하고 사용할 수 있도록 하는 도구기 때문입니다. 네이버-삼성전자 AI 반도체 개발 컨소시엄의 기술 리드를 맡고 계신 이동수 박사님의 페이스북 글을 참고하여 그 방향성을 예측해봤습니다.
⭐ 트랜스포머란?
트랜스포머는 2017년 구글이 "Attention is All You Need"라는 제목의 논문에서 발표한 신경망 알고리즘. 자연어 처리에 뛰어난 성능을 보이며, 기존 딥러닝 알고리즘인 RNN, CNN, MLP 대비 압도적인 결과 보여줌. ChatGPT가 사용하는 GPT-3 (Generative Pre-trained Transformer 3) 모델은 트랜스포머 기반으로 개발됨.
AI칩의 메모리가 중요해진다
이전 글에서 Data-centric으로의 AI 모델 흐름의 변화를 이야기했었습니다. OpenAI에서는 논문("Scaling Laws for Neural Language Models")을 통해 모델의 크기, 데이터의 크기, 연산 능력이 모델의 형태보다 성능과 유의미한 상관관계가 있음을 밝혔는데요. Scaling law에 따르면 앞으로 AI 모델은 더 많은 파라미터를 가지고 더 많은 데이터를 학습하는 방향으로 개발됨이 자명해 보입니다.
CNN, RNN 모델이 저물고 트랜스포머 모델이 대세가 된 상황에서 메모리의 중요성은 더 커질 것으로 보입니다. 기존 모델들은 메모리에서 데이터를 한번 읽으면 여러번 재사용하며 처리하는 형태가 많아, 데이터 입출력 빈도가 비교적 적었던 것 같은데요. 트랜스포머에서는 데이터 입출력이 많아 메모리 대역폭(데이터를 읽고 쓰는 속도)의 중요성이 상당히 증가했다 이해하고 있습니다.
AI 칩 회사들이 내세우는 벤치마크 테스트의 경우 데이터를 읽고 쓰는 과정을 포괄하고 있지 않은 경우도 많아, 투자 검토 시 주의해야될 것 같네요.도메인 특화 AI 칩의 입지가 줄어든다
기존에는 도메인 별로 자주 사용되는 기반 모델이 존재했습니다. 컴퓨터 비전에는 CNN이 사용되고, 자연어처리에는 트랜스포머가 사용된다던가 하는 식이었죠. 하지만 최근 트랜스포머는 대부분의 도메인에서 소위 대세가 되고 있습니다.
어쩌면 앞으로는 트랜스포머에 최적화된 AI 칩만 있으면 될지도 모릅니다. 도메인과 모델에 특화하여 칩을 개발하고 있던 팹리스 회사에는 좋지 않은 소식이죠.
트랜스포머 모델의 연산에는 MatMul layer, Feed forward layer에서의 전력 소모가 가장 많다고 하는데요. (아래 그림 참고) 이 부분을 공략하는 게 개발사들의 숙제가 되지 않을까 싶습니다. 결국 병렬처리를 최적화 하는 것 같아보이는데 그렇다면 NVIDIA의 벽은 참 높아보입니다.
어떤 AI 반도체 회사가 승리할까
거대 인공지능 모델을 타겟으로 데이터센터용 칩을 만드는 회사는 결국 NVIDIA보다 싸거나 좋은 칩을 만들어야 합니다. 다만 아직까지도 많은 개발자들이 NVIDIA에 종속되어 있는 것은 칩의 성능보다는, NVIDIA가 제공하는 CUDA 커널과 개발자 커뮤니티의 힘이라는 것을 상기할 필요가 있습니다.
Edge Device용 칩에는 비교적 기회가 있지 않을까 싶습니다. 거대 인공지능 모델의 경우 저사양의 Edge device용 칩에서는 구동이 어려운데요. 모델의 크기를 줄이면서 성능을 유지하는 경량화 기술을 갖춘 회사라면 경쟁력이 있겠다는 생각을 해봅니다.
모바일로 올라온 생성 AI...퀄컴, 모바일용 칩에 '스테이블 디퓨전' 이식
사실 ChatGPT의 등장 이전에 나왔던 많은 모델들도 사업적으로는 레거시(Legacy)라 보긴 어렵습니다. 인공지능을 탑재한 CCTV, 스피커 같은 제품의 보급이 아직 본격화되지 못했기 때문입니다. 도메인 특화 AI 칩 또한 여전히 사업 기회가 남아있다 볼 수 있습니다.
팹리스는 고객 지향의 끝판왕
개인적으로는 최근 2년여 간 데이터센터용 AI 칩의 사업성을 낮게 예측했었습니다. AI 어플리케이션 자체가 많지 않았고, 데이터센터에서 요구하는 AI 반도체 수량도 적을 것이라 판단했기 때문이죠. 하지만 트랜스포머를 필두로 한 거대 인공지능 모델들의 약진은 실질적인 인공지능 사용처에 대한 가능성을 체감할 수 있게 해주었습니다.
최근의 패러다임 전환은 팹리스 스타트업들에겐 위기이자 기회입니다. 묵묵히 해오던 일에 드디어 시장이 관심을 가져줌과 동시에, 고객의 수요 변화에 맞춰 개발 전략을 송두리째 뜯어고쳐야 하는 상황이기도 하기 때문이죠.
팹리스는 다른 어떤 산업보다도 고객의 수요(개발 스펙)가 우선되어야 하는 곳입니다. 보유한 기술을 고객에게 설득하는 상향식 접근보다는, AI 모델 개발에 어떤 수요가 있을지를 이해하고 적합한 기술을 찾는 하향식 접근이 필요합니다.
결론은 화이팅!
심사역 일을 하며 저마다의 목표를 향해 십수년 끈질기게 노력하신 여러 팹리스 대표님들을 만나뵈었습니다. 오랜 연구개발을 필요로 하고 매출 없이 버텨야하는 시간이 긴만큼, 저절로 존경스럽다는 생각이 드는 분도 많았습니다.
회사가 가진 비전에 진심으로 공감하고, 장기적인 안목으로 투자를 이어갈 수 있는 조력자가 팹리스에는 꼭 필요하지 않나 싶습니다. 어떻게 하면 그런 투자자가 될 수 있을지 고민이 깊어지는 날입니다.