시놀로지 + Ollama + lfm2.5 + Chatbot-Ollama 설치 가이드
on-device 환경에서 가볍게 돌릴 수 있는 LLM인 lfm모델과 시놀로지 DS225+를 활용해 외부 클라우드 연결 없이 내 NAS 안에서만 동작하는 로컬 AI 챗봇 환경을 구축해 보겠습니다.
일반적인 Local LLM은 고성능의 GPU와 메모리가 필수적입니다.
(ex. llama, qwen, glm ... .etc)
lfm모델의 경우 on-device에서도 막강한(?) 퍼포먼스를 보여주는 소형모델로 스마트폰이나 모바일cpu에서도 빠르게 실행할 수