AI & LLM 로컬에서 LLM 실행하기 로컬에서 LLM을 실행하기 위한 하드웨어 구성, 필수 도구, 모델 선택 및 유지 관리 방법을 종합적으로 안내합니다. Tech Adapter 2025-01-06 0 Tech Adapter 로컬 Docker 환경을 Cafe24 가상 서버에 자동으로 배포하는 방법 로컬에서 개발한 Docker 환경을 Cafe24 가상 서버에 자동으로 배포하는 방법을 상세히 설명한 글입니다. 2024-09-26 Tech Adapter Ollama와 LangChain을 사용한 RAG 구현 방법 Ollama와 LangChain을 활용해 Retrieval-Augmented Generation(RAG)을 구현하는 방법을 알아보세요. 단계별로 쉽게 따라 할 수 있는 예제를 제공합니다. 2024-08-18