단일 GPU의 미세 조정을 위한 효율적인 이기종 공동 설계

hackernews | | 🔬 연구
#llm #review #단일 gpu #미세 조정 #병렬 컴퓨팅 #이기종 설계
원문 출처: hackernews · Genesis Park에서 요약 및 분석

요약

연구진은 대규모 언어 모델(LLM)의 미세 조정을 위한 메모리 효율성을 극대화한 새로운 시스템인 'SlideFormer'를 제안했습니다. GPU를 슬라이딩 윈도우로 활용해 CPU 연산과 입출력을 비동기적으로 중복시키는 엔진과, 계층형 메모리 관리 기술을 통해 단일 RTX 4090 GPU에서도 1,230억 개 이상의 파라미터를 가진 모델 학습을 가능하게 했습니다. 성능 평가 결과, 기존 방식 대비 최대 6.27배의 높은 처리량을 보이면서 CPU와 GPU 메모리 사용량을 절반 수준으로 줄여 누구나 고성능 AI 모델을 효율적으로 활용할 수 있게 되었습니다.

본문

Computer Science > Distributed, Parallel, and Cluster Computing Title:An Efficient Heterogeneous Co-Design for Fine-Tuning on a Single GPU View PDF HTML (experimental)Abstract:Fine-tuning Large Language Models (LLMs) has become essential for domain adaptation, but its memory-intensive property exceeds the capabilities of most GPUs. To address this challenge and democratize LLM fine-tuning, we present SlideFormer, a novel system designed for single-GPU environments. Our innovations are: (1) A lightweight asynchronous engine that treats the GPU as a sliding window and overlaps GPU computation with CPU updates and multi-tier I/O. (2) A highly efficient heterogeneous memory management scheme significantly reduces peak memory usage. (3) Optimized Triton kernels to solve key bottlenecks and integrated advanced I/O. This collaborative design enables fine-tuning of the latest 123B+ models on a single RTX 4090, supporting up to 8x larger batch sizes and 6x larger models. In evaluations, SlideFormer achieves 1.40x to 6.27x higher throughput while roughly halving CPU/GPU memory usage compared to baselines, sustaining >95% peak performance on both NVIDIA and AMD GPUs. Bibliographic and Citation Tools Code, Data and Media Associated with this Article Demos Recommenders and Search Tools arXivLabs: experimental projects with community collaborators arXivLabs is a framework that allows collaborators to develop and share new arXiv features directly on our website. Both individuals and organizations that work with arXivLabs have embraced and accepted our values of openness, community, excellence, and user data privacy. arXiv is committed to these values and only works with partners that adhere to them. Have an idea for a project that will add value for arXiv's community? Learn more about arXivLabs.

Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.

공유

관련 저널 읽기

전체 보기 →