코딩 에이전트 구동 속도 높이고 비용은 반값으로 줄인 프렌들리AI 고성능 솔루션 공개 - 인공지능신문
[AI] ai coding
|
|
🔬 연구
#광주시
#디지털 전환
#머신러닝/연구
#스마트공장
#제조 혁신
#ai
#cagr
#spherical insights
#시장 분석
#의료 영상
원문 출처: [AI] ai coding · Genesis Park에서 요약 및 분석
요약
글로벌 의료 영상 AI 시장은 예측 기간 동안 연평균 높은 성장률을 기록하며 급격한 확세를 보일 것으로 전망됩니다. 이러한 급성장은 주로 조기 진단의 중요성 강조, 의료 분야의 디지털화 가속, 그리고 인공지능 기술이 적용된 고급 솔루션에 대한 수요 증가에 기인하고 있습니다. 시장 분석에 따르면 이 분야는 향후 의료 산업의 핵심 동력이 될 것으로 예상됩니다.
본문
AI 추론 엔진 소프트웨어 기업 프렌들리AI(FriendliAI)가 오는 5월 6일(수)부터 8일(금)까지 3일간 서울 삼성동 코엑스 1층 A홀 전관에서 단일 인공지능 행사로 아시아 최대 규모로 개최되는 '제9회 국제인공지능대전(AI EXPO KOREA 2026)'에 참가해 자사의 최적화된 추론 엔진을 선보인다. 프렌들리AI는 최신 오픈 소스 모델을 별도의 복잡한 인프라 구축 없이 자사의 API 하나로 즉시 연결하는 기술을 현장에서 직접 시연할 계획이다. 이 기업은 대규모 AI 연산의 핵심 기술인 '연속 배칭(Continuous Batching)'을 세계 최초로 개발한 연구진이 창업한 AI 추론 인프라 전문 기업으로, 현재 LG AI Rsearch, SK텔레콤, 업스테이지, 트웰브랩스, 넥스트데이 AI 등 국내외 주요 기업들이 실제 프로덕션 환경에서 프렌들리AI의 플랫폼을 활용하고 있다. 이번 전시 부스에서는 에이전트 환경에 최적화된 세 가지 핵심 기술이 공개된다. - GLM-5.1, MiniMax, Kimi 등 검증된 오픈소스 모델을 별도 인프라 없이 즉시 사용할 수 있는 서버리스 엔드포인트 - Claude Code, Kilo Code, OpenCode 등 코딩 에이전트와의 간편한 연동 솔루션 - 낮은 레이턴시(지연 시간)와 높은 처리량으로 에이전트 루프를 끊김 없이 구동하는 전용 추론 엔진 특히 단 하나의 엔드포인트 교체만으로 속도 제한이나 비용 걱정 없이 실시간 코딩 에이전트 경험을 누릴 수 있다는 점을 강조할 예정이다. 프렌들리AI의 서버리스 엔드포인트는 연동 과정이 매우 직관적이다. 일례로 Claude Code 사용자의 경우, 환경 변수(ANTHROPIC_BASE_URL 및 ANTHROPIC_MODEL)만 변경하면 즉시 MiniMax-M2.5, GLM-5.1 등의 모델로 전환이 완료된다. Kilo Code나 OpenCode 등의 코딩 에이전트 역시 동일한 방식으로 고성능 오픈소스 모델과 빠르게 연결할 수 있다. 본격적인 AI 에이전트 시대를 맞아 추론 속도와 비용 효율은 AI 서비스의 성패를 가르는 핵심 변수로 부상했다. 프렌들리AI는 기존 클로즈드 API 대비 50% 이상의 비용 절감 효과를 제공하며, 오픈소스 추론 엔진인 vLLM 대비 최대 3배 빠른 처리 속도를 자랑한다. 연산 규모가 커질수록 이러한 비용 및 성능 격차는 더욱 벌어져 도입 기업에 구조적인 우위를 안겨준다. 기업들의 평가도 긍정적이다. LG AI Research 측은 "커스텀 모델 API가 단 하루 만에 기업용 모니터링 기능까지 탑재되어 라이브 환경에 적용되었다"고 밝혔으며, SK텔레콤은 "대용량 데이터 처리가 안정적이면서도 응답 속도가 빠른 것이 프렌들리AI 엔진의 가장 큰 특징"이라고 평가하며 기술력을 입증했다.
Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.
공유