HN 표시: 오픈 소스 Perplexity 복제 파일 백엔드, 스트리밍 답변
hackernews
|
|
📦 오픈소스
#ai 모델
#gemini
#perplexity
원문 출처: hackernews · Genesis Park에서 요약 및 분석
요약
온셀(ONCELL)이 웹 검색, AI 답변 통합, 출처 인용 기능을 갖춘 오픈소스 Perplexity 클론인 '온셀 리서치'를 공개했다. 검색은 Tavily API를, 응답 생성은 구글 제미니 2.5 플래시를 기본으로 사용하며, 전체 백엔드가 단 하나의 JavaScript 파일로 구현되어 초보 개발자도 손쉽게 구축할 수 있다. 대화 기록 저장과 과거 연구 인덱싱 기능도 내장되어 있고, 애자일리 무료 티어 기준 월 1,000회 검색이 가능하다. 이 프로젝트는 Apache-2.0 라이선스로 공개되어 비상업적 용도를 포함한 다양한 활용이 가능하다.
본문
Search the web, synthesize answers, cite sources. Like Perplexity — but open source, and the entire backend is one file. Built with Next.js and OnCell. - Web search — searches the internet for every query via Tavily - Synthesized answers — LLM reads the sources and writes a structured response - Source cards — every answer shows the web pages it came from, with favicons and links - Follow-up questions — conversation context is maintained per session - Past research — all queries are indexed and searchable for future reference - Zero infra — search history, conversation memory, and agent runtime are all handled by OnCell A research agent needs a runtime, a database for conversation history, and a search index for past research. That's three services. OnCell gives you all of that in one call: const cell = await oncell.cells.create({ customerId: "research", agent: agentCode, }); // cell.db → conversation history per session // cell.search → index and search past research // cell.fetch → web search via Tavily // One file. Zero config. git clone https://github.com/oncellai/oncell-research.git cd oncell-research npm install - OnCell — oncell.ai - OpenRouter — openrouter.ai - Tavily — tavily.com (free tier: 1000 searches/month) Add them to .env.local : cp .env.example .env.local # Edit with your keys node scripts/setup.js npm run dev Open http://localhost:3000 and start researching. Next.js ├── / Research UI (Perplexity-style) ├── /api/chat POST → OnCell cell OnCell cell ├── db Session history per user ├── search Index of past research └── agent Web search → LLM synthesis → cited answer The agent code is one file: lib/agent-raw.js . It searches the web via Tavily, builds a prompt with the results, calls the LLM, saves history, and indexes the research for future reference. Change the LLM — set LLM_MODEL in .env.local (default: google/gemini-2.5-flash ) Change search depth — edit search_depth and max_results in lib/agent-raw.js Style the UI — edit app/page.tsx . Standard Next.js + Tailwind. - OnCell — build AI agents without building infra - oncell-support-agent — another open source OnCell project Apache-2.0
Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.
공유