top of page
All Posts


대원씨티에스, AI 컨퍼런스 ‘DIA 넥서스 서밋’ 성료
(2024. 9. 5) 국내 최대의 IT 인프라 공급업체인 대원씨티에스(대표 김보경, 이상호, 하성원)는 3일, 서울 여의도 페어몬트 앰배서더 서울 호텔 그랜드볼룸에서 DIA 넥서스 서밋(DIA Nexus Summit) 2024 컨퍼런스를 성대하게 개최해다고 밝혔다. 300여명의 AI 관계자들이 참석한 이번 컨퍼런스에는 딥엑스, 노타AI, 케이투스, 슈퍼마이크로, 텐AI, 바스트데이터 등 국내외 AI 기업들이 참여해 기술과 제품을 선보였다. 또 각 사의 제품과 기술로 어떻게 AI를 구현할 수 있는지 발표가 이어졌다. 대원씨티에스 엔터프라이즈 부문 김광정 대표는 환영사를 통해 “기업들에 저장되어 있는 데이터들은 가공되기 전의 다이아몬드 원석과 같다. 이것을 새로운 밸류로 만들어 줄 수 있는 것이 바로 AI이고 사람과 사물 사이의 관계를 이어줄 수 있는 것이 넥서스”라면서 “NPU, GPU, TPU, DPU 등 다양한 형태의 프로세싱 유닛(XPU


대원씨티에스, ‘AI 동맹’ 강화…협력 계약 잇달아 체결
온디바이스 AI 최적화 기술 스타트업 노타 및 LG AI연구원과 AI 분야 협력 ‘맞손’ (2024. 11. 21) 국내 최대 IT 인프라 공급업체인 대원씨티에스(대표 하성원)가 올해 초 AI 비즈니스 확장을 선언한 이후, 지속적으로 ‘AI 동맹’을 강화하며 업계의 주목을 받고 있다. 대원씨티에스는 19일, AI 최적화 및 경량화 기술 스타트업인 노타(대표 채명수)와 엣지 AI 솔루션 사업에 협력하는 MOU체결식을 진행한데 이어 LG AI연구원(원장 배경훈)과도 초거대 언어 모델(Large Language Model) 비즈니스에 관한 파트너십을 체결했다고 밝혔다. 우선 대원씨티에스는 노타와 엣지 AI 솔루션 사업을 공동으로 추진할 계획이다. 엣지 AI 솔루션은 노타가 보유 및 공급하는 지능형 교통 관제 등의 AI 모델 및 넷츠프레소 플랫폼과 대원씨티에스에서 총판을 담당하고 있는 딥엑스 NPU 제품 및 기타 컴퓨팅 자원을 활용하고 결합하는 솔루션이다


SK텔레콤 전문위원 출신 최귀남 대표 영입
AI 사업 강화 위한 엔터프라이즈 부문 조직개편 단행 국내 최대 IT 인프라 공급업체인 대원씨티에스(대표 하성원)가 지난해 말 엔터프라이즈 부문 조직개편을 단행하고 올해부터 본격적으로 AI 시장 비즈니스 강화에 나섰다. 이를 위해 대원씨티에스는 SK텔레콤 엔터프라이즈 전문위원이고 델 테크놀로지스, 시스코, 파운드리 네트웍스 등 글로벌 IT 기업 출신의 최귀남(사진) 대표를 영입했다. 우선 대원씨티에스는 엔터프라이즈부문을 AIX 사업팀, AI DC 사업팀, 스마트컨버전스 사업팀 그리고 컨설팅&기술지원팀 등으로 구조 개편하여 시너지 효과를 더욱 극대화한다는 전략이다. 빠르게 변화하는 디지털 트렌드 및 고객의 요구 수준에 맞춰 경험과 기술, 역량을 제공한다는 것이다. 일반 생성형 AI는 물론 기존 업무시스템과 통합해 프로세스를 최적화하는 최적화 AI까지 엔드-투-엔드 지원으로 AI 에코 생태계를 구축해 나가겠다는 계획이다. AI 기반의 데이터센터 사업이


대원씨티에스, 2025년 엔터프라이즈 부문 전략 발표 “AI 기반 데이터센터 및 스마트 컨버전스에 집중”
대원씨티에스 판교 지사에서 미디어데이 개최…AI와 디지털기술로 고객 성장 지원 대원씨티에스 엔터프라이즈 부문(대표 최귀남)은 12일 미디어데이를 개최하고 2025년 전략을 발표, AI와 디지털 기술을 활용해 고객의 성공과 성장을 지원할 계획임을 밝혔다. 이번 전략은 △2024년 사업 실적 및 2025년 목표 △조직 구조 및 역량 강화 △AI 솔루션 적용 △기술 인프라 및 파트너십 △교육 프로그램 및 생태계 개발 등 5가지 축으로 구성되어 있다. 1. 2024년 사업 실적 및 2025년 목표 대원씨티에스는 크게 3가지에 역점을 둘 계획이다. 첫째, AI 가치 창출. 생성형 AI를 활용한 비즈니스 모델 혁신을 통해 업무 효율성을 극대화하고, 새로운 수익 창출 기회를 모색하며 AI 기반 데이터 분석을 통해 고객 맞춤형 솔루션을 제공하고 매출 성장을 도모할 예정이다. 둘째, 데이터센터 개발. GPU 인프라 확충 및 데이터 관리 체계를 구축하여 대규모


대원씨티에스-하이퍼엑셀, 생성형 AI 위한 LLM 가속 솔루션 시장 정조준 ‘맞손’
하이퍼엑셀과 파트너십 체결…AI 시장 확대 및 시장경쟁력 강화 포석 2025년 4월 3일 – IT 유통 및 솔루션 전문 기업 대원씨티에스(대표 하성원)가 글로벌 기술 혁신 기업 하이퍼엑셀(HyperAccel, 대표 김주영)과 전략적 파트너십을 체결했다고 밝혔다. 이번 협약을 통해 양사는 차세대 생성형 AI를 위한 LLM 가속 솔루션 시장에서 협력을 강화하고, 국내외 시장 확대를 위한 공동 사업을 추진할 계획이다. 대원씨티에스는 국내 IT 시장에서 30년 이상 축적된 유통 및 솔루션 공급 경험을 보유하고 있으며, 하이퍼엑셀은 생성형 AI 가속 기술 분야에서 세계적인 경쟁력을 갖춘 기업이다. 이번 협력을 통해 대원씨티에스는 하이퍼엑셀의 최첨단 기술을 국내외 시장에 적극 공급하고, 하이퍼엑셀은 대원씨티에스의 광범위한 유통 네트워크를 활용해 고객 접점을 확대할 예정이다. 하이퍼엑셀은 2023년 1월 설립된 인공지능(AI) 반도체 개발 기업으


대원씨티에스, SS&C 블루프리즘 글로벌 어워드서 '혁신 우수상' 수상
생성형 AI 기반의 혁신적 자동화 시스템 구축으로 APAC 지역 수상자로 선정 SS&C 블루프리즘 수석 부사장 겸 APAC 제너럴 매니저, 써니 사하가 대원씨티에스 하성원 대표에게 트로피를 전달하고 있다. 2025년 6월 23일 — 국내 최대 IT 인프라 솔루션 전문기업 대원씨티에스(대표 하성원, 이상호, 김보경)는 세계적인 엔터프라이즈 AI 기업 SS&C 블루프리즘이 주관하는 Customer Excellence Awards 2025에서 Innovation Brilliance Award(혁신 우수상)를 수상하며, 아시아-태평양(APAC) 지역 수상자로 선정되었다고 밝혔다. SS&C 블루프리즘이 주관하는 Customer Excellence Awards(CEA)는 AI와 자동화를 도입하여 비즈니스 혁신을 이룬 전 세계 고객을 대상으로 매년 수여되는 상으로, 2025년에는 7개 카테고리에서 총 28개 수상작이 선정되었다. 각 부문은 글로벌 수상자


대원씨티에스, NETINT와 공식 리셀러 계약 체결
GPU 한계 극복한 AI 기반 스마트 비디오 처리 솔루션 시장 공동 개척키로 [2025년 7월 22일] 국내 최대의 AI 인프라 솔루션 전문기업 대원씨티에스(대표 하성원, 이상호, 김보경)가 캐나다에 본사를 두고 있는 AI 기반 스마트 비디오 처리 반도체 전문 기업 넷인트 테크놀로지스(NETINT Technologies)와 파트너십 계약을 체결, 국내- 시장 공략에 박차를 가한다고 밝혔다. 이번 파트너십 계약을 통해 대원씨티에스는 NETINT 제품에 대한 한국 시장의 공식 리셀러 권한을 확보하게 되었다. NETINT는 ASIC 기반의 VPU(Video Processing Unit) 기술을 중심으로 고효율·고성능 비디오 처리 솔루션을 제공하는 캐나다 반도체 기업으로, CPU나 GPU 대비 10배 처리량, 1/10 비용, 80% 에너지 절감의 혁신적 기술력을 인정받고 있다. 특히 Codensity G5는 8K 10bit HDR 지원과 온칩AI 연산(1


대원씨티에스, 서울 영등포 신사옥으로 통합 이전… AI 비즈니스 강화 본격화
용산·원효로·판교 조직 한군데 모아 업무 효율 극대화… AI Experience Lab 구축으로 차세대 기술사업 박차 AI 인프라 및 엔터프라이즈 네트워크 전문기업 대원씨티에스(대표 하성원, 이상호, 김보경)는 12월 29일 서울 영등포구에 위치한 TCC센터 내 신사옥으로 통합 이전한다고 밝혔다. 이번 이전은 용산 본사와 원효로·판교지사 등 지역별로 분산되어 있던 조직을 한 곳으로 모아 운영 효율성과 협업 체계를 강화하기 위한 전략적 조치로 풀이된다. 또한 AI 서버와 인프라 중심의 신사업 확대를 위한 기반 구축이 핵심 목적이다. 대원씨티에스는 이번 이전을 통해 물리적으로 분리돼 있던 조직을 한 공간에 통합함으로써 의사 결정 속도 향상, 부서 간 협업 시너지, 고객 대응 품질 개선 등 다각도의 긍정적 효과를 기대하고 있다. 특히 기술·영업·서비스를 아우르는 원스톱 지원 체계를 더욱 강화해 고객 만족도를 높이는 데 주력할 계획이다. 신사옥


KAYTUS MotusAI가 일본 유수 대학의 연구 인프라를 혁신하는 방식
대학의 연구 인프라로 오랜 기간 슈퍼컴과 HPC(High Performance Computing) 클러스터가 중요한 역할을 담당했습니다. 이 자리에 최근 엄청난 존재감을 보이며 등장한 컴퓨팅 환경이 있습니다. 바로 GPU 서버로 구성한 AI 클러스터입니다. 민간 분야 못지 않게 대학도 이제 AI 없는 연구 혁신은 생각할 수 없습니다. 이처럼 중요성이 커지고 있는 AI 클러스터는 투자 못지 않게 관리 부담도 큽니다. 관련해 이번 포스팅에서는 KAYTUS의 MotusAI로 기업 못지 않은 AI 클러스터 운영 역량을 확보한 일본의 대학 사례를 살펴보겠습니다. AI로 업의 본질을 찾아가는 대학의 양방향 전략 일본의 한 유수 연구 대학이 KAYTUS의 MotusAI를 도입한 이유는 AI를 단순한 도구로 소비하는 것을 넘어, 대학의 핵심 역량으로 내재화하려는 전략적 비전이 있었기 때문입니다. 이 대학은 AI 기술 발전을 선도함과 동시에 이를 생물학, 물리


더 깊게 생각하는 AI, 폭증하는 비용, Agentic AI 시대의 성공적인 AI 인프라 전략
파운데이션 모델 기반 생성형 AI가 대중의 관심을 끌기 시작하던 2022년 말만 해도 AI 업계와 기술 커뮤니티의 화두는 GPU와 훈련이었습니다. 하지만 2025년 현재는 민간, 공공 영역에서 AI 서비스가 프로덕션 환경에 배포되면서 관심사는 추론과 NPU 같은 전용 가속기로 옮겨갔습니다. 그리고 자연스럽게 어떻게 하면 추론 성능을 최적화하고 TCO를 낮출 것인지에 대한 이야기가 오가고 있습니다. 그렇다면 모델은? 대규모로 GPU를 확보해 운영할 수 있는 예산과 인력이 있는 대기업이나 빅테크가 아닌 이상 파운데이션 모델을 직접 훈련하지 않습니다. 일반 기업이나 테크 기업 그리고 공공 기관의 경우 허깅페이스 같은 모델 리포지토리에서 필요한 파운데이션 모델이나 도메인 특화 모델을 가져와 미세 조정해 씁니다. 더불어 사내 보유 데이터와 도메인 지식을 RAG로 보완하는 것이 표준처럼 자리를 잡았습니다. 달라진 인프라 요구 사항 AI가 프로덕션 환경에


MotusAI를 통합 AI DevOps 플랫폼이라 부르는 이유는?
AI 패러다임이 추론 중심으로 전환됨에 따라 GPU 자원 활용률 최적화는 더 이상 기술적 과제가 아닌 기업의 생존과 경쟁력을 좌우하는 핵심 전략 과제가 되었습니다. MotusAI는 단일 노드 하이브리드 스케줄링과 유연한 GPU 가상화 툴킷을 통해 R&D의 속도와 프로덕션 서비스의 안정성을 단일 통합 인프라 위에서 동시에 달성할 수 있다는 가능성을 제시하고 있습니다. 이를 기능 측면에서 살펴보겠습니다. 스케줄링 유휴 용량 문제를 해결하는 MotusAI의 핵심 전략은 훈련과 추론 워크로드를 동일한 하드웨어에서 동적으로 통합 조율하는 데 있습니다. 이는 훈련과 추론 클러스터를 물리적으로 분리하던 전통적인 방식과의 근본적인 차별점입니다. MotusAI는 단일 노드에서의 하이브리드 훈련-추론 스케줄링 기능을 제공합니다. 이를 통해 단일 노드 또는 클러스터에서 두 가지 유형의 워크로드를 동적으로 혼합 배치(Mixed Orchestration)할 수 있습니다.


AI 데이터센터, 훈련에서 추론으로의 패러다임 전환
ChatGPT의 전 세계 사용자 수가 2025년 말 10억 명을 바라보는 시대입니다. 생성형 AI가 촉발한 AI가 창출하는 새로운 비즈니스 가치에 대한 공감이 확산하면서 자연스럽게 엔터프라이즈의 관심사는 훈련(Training)에서 추론(Inference)으로 전환되고 있습니다. 이러한 패러다임의 전환은 AI 데이터센터 전략에도 영향을 끼치고 있습니다. 대표적인 것이 플랫폼 운영 전략입니다. 거대한 GPU 자원 풀의 활용률을 극대화하는 데 있어 훈련과 추론 워크로드를 모두 고려해야 하기 때문입니다. AI 모델 훈련 워크로드는 수 페타바이트(PB)의 데이터를 처리하기 위해 수백, 수천 개의 GPU를 몇 주 또는 몇 달간 독점적으로 사용합니다. 이 워크로드의 유일한 목표는 최대한 빠르게 모델을 훈련하는 데 필요한 처리량(Throughput) 확보입니다. 반면에 AI 모델을 기반으로 실제 서비스를 제공하는 프로덕션 환경의 AI 추론 워크로드는 지향점이 다


동영상 시장의 구조적 변화와 차세대 인코딩 기술로 ASIC이 주목받는 이유
2025년 현재 우리는 OTT와 유튜브가 공중파 방송보다 더 큰 영향력을 끼치고 있고 전국에 촘촘히 설치한 공공 부문의 CCTV가 촬영한 동영상이 치안, 안전, 행정, 교통 등 중요 대민 서비스를 지탱하는 시대를 살고 있습니다. 이처럼 다양한 목적으로 디지털 플랫폼 상에서 처리하는 동영상이 민간과 공공 영역에서 폭발적으로 증가하며 관련 기술 시장은 구조적 변화를 맞이하고 있습니다. 이 변화의 핵심은 동영상 인코딩에 특화한 ASIC입니다. 패션 유행이 돌고 돌듯이 동영상 인코딩 분야도 ASIC에서 소프트웨어 정의 방식으로 그리고 다시 ASIC으로 유행이 바뀌었습니다. 차세대 인코딩 기술로 다시 ASIC에 관심이 몰리는 이유를 살펴보겠습니다. 동영상 인코딩 기술의 진화 동영상 인코딩 기술은 시대의 기술적 한계와 새로운 비즈니스 요구에 발맞춰 끊임없이 진화의 길을 걷고 있습니다. 지금까지의 변천사를 되짚어보면 앞으로 어떤 기술이 대세가 될 것인지 가


추론 서비스를 위한 AI 데이터센터 구축 가이드
현재 많은 기업이 AI 모델을 프로덕션 환경에 배포해 추론 서비스를 제공하는 과정에서 기술적 장벽에 부딪히고 있습니다. 비효율적인 GPU 자원 활용, 느린 배포 속도, 낮은 안정성, 그리고 감당하기 어려운 운영 비용은 AI 전환을 가로막는 주요 요인입니다. 이는 최신 GPU를 장착한 서버를 도입한다고 해결할 수 있는 문제가 아닙니다. 성공적으로 프로덕션 추론 인프라를 구축하려면 컴퓨팅, 네트워킹, 냉각, 그리고 지능형 소프트웨어를 긴밀하게 통합하는 풀스택(Full-Stack) 접근법이 필수입니다. 이번 포스트에서는 대원씨티에스의 파트너인 KAYTUS가 제안하는 효율적인 AI 추론 환경 구축을 위한 가이드를 정리해 보았습니다. AI 추론 최적화를 위한 고려 사항 AI 추론은 단일한 워크로드가 아닙니다. 거대 언어 모델(LLM)이나 멀티 모달 언어 모델(MMLM) 기반 추론 서비스는 Prefill과 Decode 두 단계로 분리해 최적화하는 전략이


AI 시대의 역설, 왜 비싼 GPU는 잠자고 있을까?
최신 GPU 확보를 위한 경쟁 열기가 여전합니다. AI 데이터센터를 조직의 중요 투자 대상으로 삼는 곳이 늘면서 한정된 GPU 자원 확보 경쟁이 갈수록 치열해지고 있습니다. 그렇다면 GPU 자원은 확보만 하면 되는 것일까요? 막대한 투자 이면에는 낮은 GPU 활용률이라는 불편한 진실이 숨어 있습니다. 활용률이 낮은 이유 낮은 GPU 활용률 문제의 근본 원인을 파악하려면 GPU를 넘어 시스템 전체를 바라보아야 합니다. GPU 활용률은 단일 지표가 아니라 컴퓨팅, 메모리, 데이터 입출력(I/O)이 복잡하게 얽힌 결과물입니다. 낮은 GPU 활용률을 초래하는 핵심적인 기술적 병목 현상은 여러 가지가 있습니다. 데이터 병목 현상(Data Starvation)부터 알아보겠습니다. 강력한 GPU도 처리할 데이터가 제때 공급되지 않으면 멈춰 섭니다. 느린 스토리지 I/O, 네트워크 지연, 비효율적인 데이터 전처리 파이프라인으로 인해 GPU가 데이터를 기다리며


AI 데이터센터에 맞는 AIOps 기반 운영 & 관리가 필요
AI 데이터센터는 구축과 운영 모두 비용이 많이 들지만 조직의 미래 비전과 전략 실행의 근간이다 보니 투자 우선 순위가 높습니다. 이처럼 중요한 시설 투자일 수록 24시간 365일 장애나 중단 없이 GPU 자원을 효율적으로 활용하며 안정적으로 돌아가야 합니다. 이번 포스팅에서는 KAYTUS의 KSManage 도구로 AIOps 기반 AI 데이터센터 인프라 운영과 관리 방식을 어떻게 바꿀 수 있는지 살펴보겠습니다. 한계에 도달한 전통적 운영 방식 전통적인 데이터센터 운영 방식은 여러모로 AI 데이터센터와 맞지 않습니다. 그 이유는 크게 이기종 환경, 매뉴얼 방식의 관리, 사후 대응에 초점을 맞춘 모니터링에서 찾아 볼 수 있습니다. 일반적인 데이터센터는 여러 벤더의 장비가 혼재된 이기종 장비로 구성되어 있습니다. 각 장비가 고유의 관리 인터페이스와 프로토콜을 사용하다 보니 자연스럽게 운영 환경이 파편화되고 사일로화됩니다. 이런 조건에서는 자원 활용


이더넷 표준 기반으로 AI 데이터센터를 구축해야 하는 이유
오늘날 AI 인프라에서 네트워크의 중요성은 강조할 필요가 없을 정도입니다. 그 이유는 기존 네트워크 기술로는 AI 워크로드에서 요구하는 높은 성능과 안정성을 완벽하게 충족하기 어렵기 때문입니다. AI 워크로드는 일반적인 데이터 전송 수준을 훨씬 뛰어넘는 대규모 연산과 데이터 교환을 동반합니다. 예를 들어 수백 수천 개의 GPU나 NPU가 동시에 수많은 모델 파라미터를 교환하고, 연산 결과를 다시 통합하며, 이 과정을 빠르게 반복합니다. 이러한 특성 때문에 AI 트래픽은 보통 ‘대역폭을 많이 쓰는 대형 흐름(Flow)’과 ‘갑작스럽게 확 늘어났다 줄어드는 짧은 흐름’이 혼재하게 됩니다. 조금 더 자세히 설명하자면 대형 흐름은 AI 워크로드에서 대량의 데이터가 지속적으로 전송되는 상황을 의미합니다. 대규모 모델의 파라미터를 여러 GPU가 공유할 때 발생하는 트래픽을 예로 들 수 있습니다. 짧은 흐름은 AI 워크로드에서 짧은 시간 동안 폭발적으로


클라우드를 닯아 가는 AI 데이터센터 전략, LLM 추론 워크로드 최적화를 위해 새로운 선택지 ‘LPU’
요즘 AI 인프라 트렌드를 보면 클라우드를 많이 닮아가고 있는 것을 알 수 있습니다. 특히 AI 워크로드 최적화 컨셉을 아키텍처 설계 단계부터 고려하는 것이 눈에 띄게 닮았습니다. 대원씨티에스는 이런 흐름을 일찍부터 감지하고 GPGPU 서버...


최고의 성능과 효율을 보장하는 KAYTUS의 풀스택 AI
GPU 클러스터 구축은 험난한 여정입니다. 경험 없이 시작하면 시행착오를 피할 수 없습니다. 알아야 할 것이 너무 많아서 인데요. 고가의 GPU 자원이 제 성능을 내지 못하거나 자원 활용률이 목표치보다 낮게 나오면 튜닝의 늪에 빠질 수 있습니다....


AI 기반 운전자 모터링 시스템, 왜 NPU가 최선의 선택일까요?
운전자 모니터링 시스템(Driver Monitoring System, 이하 DMS)은 이제 차량 옵션 사양을 넘어 미래 자동차의 핵심이자 법적으로 의무화된 안전 기술로 자리 잡아 가고 있습니다. DMS의 기본 개념부터 NPU를 활용한 장치 구현...
bottom of page
.png)