HN에게 물어보세요: IDE 통합 없이 로컬 LLM 코드 평가를 위한 간단한 도구를 사용하시겠습니까?
hackernews
|
|
{'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} AI 모델
#ai 모델
#llama
요약
제가 찾고 있는 것에 대한 기준을 제시하겠지만, 이것이 소프트웨어 개발에서 LLM의 역할에 대한 일반적인 논쟁으로 변질되는 것을 원하지 않습니다. 그 논의는 중요하지만 우리에게는 많은 논의가 있습니다. 따르는 모든 것을 아이스크림 맛처럼 개인적인 취향으로 생각하세요.<p>IDE 통합에 의존하지 <i>않고</i> 로컬 LLM(바람직하게는 llama.cpp를 통해)이 코드를 검사하고 비평할 수 있는 가볍고 간단한 도구 세트가 있습니까? 나는 LLM이 어떤 공동 글을 작성하는 것을 원하지 않습니다
왜 중요한가
본문
While I'll set out the criteria for what I'm looking for, I don't want this to turn into a general debate about the role of LLMs in software development. That discussion is important, but we have plenty of them. Consider everything that follows as personal a taste as ice cream flavor.<p>Is there a lightweight, simple toolset for having local LLMs (preferably through llama.cpp) inspect and critique code <i>without</i> relying on IDE integration? I do not want an LLM to write any code for me, but I have definitely warmed to the idea of having them critique and assist in debugging. I'm a bit of a simpleton who prefers not to integrate too many things with my editor, so I'd like something that behaves kind of like a REPL; some commands to load source files from a directory and present those to the LLM (through llama.cpp?), and then some functions to interact with the LLM with said code in context. With simple convenience functions that let me save state, refresh updated code, etc.</p><p>I'd prefer if this didn't all go through the web browser.</p><p>Does anyone know of such tooling?</p>