Ollama

로컬에서 LLM 실행하기

로컬에서 LLM을 실행하기 위한 하드웨어 구성, 필수 도구, 모델 선택 및 유지 관리 방법을 종합적으로 안내합니다.

0

Ollama를 사용해 LLM 모델을 로컬에서 쉽게 배포하고 실행하는 방법

Ollama를 사용해 LLaMA와 Mistral 같은 대규모 언어 모델을 로컬 환경에서 쉽게 배포하고 실행하는 방법을 알아보세요.

0

Ollama와 LangChain을 사용한 RAG 구현 방법

Ollama와 LangChain을 활용해 Retrieval-Augmented Generation(RAG)을 구현하는 방법을 알아보세요. 단계별로 쉽게 따라 할 수 있는 예제를 제공합니다.

0

멀티 LLM 질의 도구로 개발자 생산성을 극대화시켜주는 MirrorOn

MirrorOn은 여러 LLM에서 동시에 답변을 받을 수 있는 도구로, 개발자들의 생산성을 크게 향상시킵니다.

0