HN 표시: Docker는 필요한 것보다 더 많은 것을 가져오고 이를 수정할 수 있는 방법

hackernews | | 📰 뉴스
#docker #기타 ai #레이어 #이미지 #최적화 #docker pull #레이어 캐싱 #이미지 최적화
원문 출처: hackernews · Genesis Park에서 요약 및 분석

요약

한 개발자는 Docker 이미지 풀이 기존 레이어 기반 전략으로 인해 데이터 중복과 비효율을 초래한다는 문제를 지적하며, 이를 시각화하는 도구를 개발했습니다. 이 도구는 두 이미지 간의 실제 필요 데이터량을 계산해 현재 방식보다 얼마나 더 많은 데이터를 다운로드하는지 보여줍니다. 개발자는 향후 레지스트리와 로봇 분야의 느린 네트워크 환경 개선을 위해, 파일 수준 중복 제거와 공유를 지원하는 최적화된 레지스트리 구축을 계획하고 있습니다.

본문

Docker pulls more than it needs to There oughtta be a way to make repeated docker pulls smarter. Adding a single byte to a single layer invalidates it and every following layer, even if every other file in those layers is byte-for-byte identical. For anyone with many dependencies (looking at you, ROS!), it could mean gigabytes of unrelated files dragged along with your small change. And you'd better hope you're not pulling on a robot out on the farm, or a device at a client's warehouse at dial-up speed. We can do better. Yes, robotics companies frequently "use Docker wrong". A lot of Docker tooling isn't happy with images being so large. While it's nice having your ML models bundled directly with your compiled code, it can cause some difficulties, too. But rather than try to teach every roboticist all of the two dozen little Dockerfile tricks to get this stuff "correct" (if such a thing is possible with a hundred dependencies), why not teach the tool, instead? There are a lot of benefits to running a registry with this capability as well. How many copies of python3.10 are floating around on DockerHub's servers, unable to be coalesced? As a user, why are you paying for storage of those binaries, when the registry already has that data, locked in a tarball? Interested? We're building a smarter docker pull . If you're pushing large images to robots, edge AI, IoT, datacenters in space, or anywhere bandwidth is painful, we'd love to talk. Get in touch

Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.

공유

관련 저널 읽기

전체 보기 →