top of page


클라우드를 닯아 가는 AI 데이터센터 전략, LLM 추론 워크로드 최적화를 위해 새로운 선택지 ‘LPU’
요즘 AI 인프라 트렌드를 보면 클라우드를 많이 닮아가고 있는 것을 알 수 있습니다. 특히 AI 워크로드 최적화 컨셉을 아키텍처 설계 단계부터 고려하는 것이 눈에 띄게 닮았습니다. 대원씨티에스는 이런 흐름을 일찍부터 감지하고 GPGPU 서버...
Chang Sun Park
9월 29일2분 분량


최고의 성능과 효율을 보장하는 KAYTUS의 풀스택 AI
GPU 클러스터 구축은 험난한 여정입니다. 경험 없이 시작하면 시행착오를 피할 수 없습니다. 알아야 할 것이 너무 많아서 인데요. 고가의 GPU 자원이 제 성능을 내지 못하거나 자원 활용률이 목표치보다 낮게 나오면 튜닝의 늪에 빠질 수 있습니다....
Chang Sun Park
9월 29일3분 분량


LLM, SLM 기반 추론 환경을 위한 모델 경량화 & 최적화가 중요한 이유!!
거대 언어 모델(Large Language Model, 이하 LLM)이나 소형 언어 모델(Small Language Model, 이하 SLM)을 프로덕션 환경에 배포하여 추론 작업을 수행할 때 GPU, NPU, 메모리 등 자원을 효율적으로...
Chang Sun Park
2024년 11월 26일2분 분량
bottom of page