파네시아, AI 인프라 솔루션 관련 대규모 기술개발 프로젝트 착수
Share
AI 인프라 관련 솔루션 개발 기업, 파네시아가 AI 데이터센터의 구조를 새롭게 혁신하는 프로젝트를 진행합니다. 파네시아는 해당 프로젝트의 일부로써 대규모언어모델(Large Language Models, LLMs), 검색증강생성(Retrieval-Augmented Generation, RAG), 벡터검색, 추천시스템 등 대규모 AI 응용을 가속할 수 있는 칩렛(chiplet) 구조 기반의 모듈화된 가속기를 개발할 계획입니다.
AI 인프라의 한계 AI 서비스가 일상에 깊이 자리 잡으면서, 모델의 정확도는 사용자 참여도와 매출에 큰 영향을 미치는 핵심 요소로 부상하고 있습니다. 이에 따라 기업들은 더 높은 정확도를 위해 모델과 데이터셋 규모를 계속 확장하고 있으며, 이를 뒷받침하기 위한 인프라도 전례 없이 대규모로 커지고 있습니다. 하지만 현재의 AI 인프라는 다양한 워크로드의 연산 및 메모리 수요를 고려하지 않은 채, 자원 비율이 고정된 GPU만을 사용하는 경우가 많아 자원이 비효율적으로 활용되는 문제가 발생하고 있습니다. 이를 해결하려면 AI 인프라가 비용과 전력, 자원 활용 측면에서 훨씬 더 유연하고 효율적인 방향으로 변화해야 합니다.
차세대 AI 인프라를 위한 파네시아의 통합 솔루션 파네시아는 새로운 연구 개발 프로젝트를 통해 앞서 설명한 AI 인프라 관련 문제를 해결합니다. 구체적으로, 파네시아는 대규모 AI 워크로드를 효율적으로 처리할 수 있는 차세대 칩 기반 AI 가속기 및 해당 가속기가 통합된 인프라 시스템을 개발할 예정입니다. 해당 가속기는 응용의 특성에 알맞게 구성될 수 있으며, 인-메모리 프로세싱(In-Memory Processing) 등 차세대 반도체 기술을 포함합니다. 해당 요소들은 파네시아가 기보유한 컴퓨트익스프레스링크(Compute Express Link, CXL) 풀시스템 솔루션에 통합되는 형태입니다.
파네시아는 CXL 등 기보유한 메모리 및 인터커넥트 기술에 대한 전문성을 바탕으로, 최신 AI 워크로드의 수요를 충족시키기 위해 다음의 기능들을 포함한 형태로 차세대 시스템을 개발할 예정입니다.
재활용 가능하며 유연한 칩렛 기반 아키텍처 파네시아의 AI 가속기는 시스템-온-칩(System-on-Chip, SoC)의 빌딩 블록인 칩렛(타일)의 조합으로 구성됩니다. 이러한 구조는 연산/메모리 칩렛을 필요에 따라 원하는 위치에 배치할 수 있어, 연산 성능과 메모리 용량을 실제 수요에 맞게 유연하게 조절할 수 있습니다. 이러한 특성 덕분에 자원 활용도를 효과적으로 최적화할 수 있습니다.
또한 칩렛 기반 구조는 SoC 전체를 수정하지 않고도 일부만 변경할 수 있어 개발 시간을 크게 단축할 수 있습니다. 특정 기능의 수정이 필요한 경우, 관련된 칩렛만 교체하거나 업데이트하고 나머지는 그대로 재사용할 수 있기 때문에, 빠르게 변화하는 시장 트렌드에 민첩하게 대응할 수 있습니다.
매니코어 아키텍처 및 벡터 연산기 파네시아의 AI 가속기는 두 종류의 연산 칩렛을 포함합니다: 1. 매니코어 구조 기반 칩렛(Core Tile), 2. 벡터 연산기 기반 칩렛(PE Tile). 사용자는 타겟 워크로드에 최적화된 연산 타일을 선택함으로써, 전력 대비 성능을 최적화할 수 있습니다. 예를 들어, 매니코어 칩렛은 병렬성이 높은 동작에 적합하며, 벡터 연산기는 벡터 데이터를 처리하는 거리 계산과 같은 연산에 보다 효과적입니다.
또한, 파네시아는 최신 공정을 기반으로 SoC를 개발할 예정이며, 이에 내부에 천 개가 넘는 코어를 포함할 수 있습니다. 덕분에, 최신 AI 응용 프로그램이 요구하는 높은 연산 성능을 효율적으로 충족할 수 있습니다.
인-메모리 프로세싱 연산자원과 메모리자원 간의 데이터 이동은 전력소모를 유발하는 주 원인 중 하나입니다. 파네시아는 인-메모리 프로세싱 기술을 도입하여 불필요한 데이터 이동을 최소화하고자 합니다. 해당 방식을 통해 대규모 AI 시스템에서 데이터 이동으로 인해 발생하는 전력소모량을 획기적으로 줄일 수 있습니다.
최종적으로, 파네시아는 새롭게 개발한 솔루션 외에도 기보유한 CXL 솔루션(예: CXL IP) 또한 시스템에 통합할 예정입니다. CXL 기반의 자원 풀링은 수요에 따라 자원을 유연하게 확장할 수 있도록 하며, 이를 통해 사용자는 AI 인프라 구축 비용을 효율적으로 절감할 수 있습니다.
파네시아 관계자는 “기존에 보유한 메모리 및 인터커넥트 관련 기술력과 AI 인프라 혁신을 위한 방향/계획을 인정받아 이번 프로젝트를 체결할 수 있었다”고 밝히며, **“세상에 없던 AI 인프라 관련 솔루션을 개발하여 데이터센터 구조를 새롭게 개편하는 중요한 초석이 될 것으로 기대한다”**고 밝혔습니다.