AI & LLM 로컬에서 LLM 실행하기 로컬에서 LLM을 실행하기 위한 하드웨어 구성, 필수 도구, 모델 선택 및 유지 관리 방법을 종합적으로 안내합니다. Tech Adapter 2025-01-06 0 Tech Adapter 로컬 Docker 환경을 Cafe24 가상 서버에 자동으로 배포하는 방법 로컬에서 개발한 Docker 환경을 Cafe24 가상 서버에 자동으로 배포하는 방법을 상세히 설명한 글입니다. 2024-09-26 Tech Adapter 이미지 크기를 78%까지 줄이는 Next.js Docker 배포 최적화 완벽 가이드 Next.js의 standalone 모드와 Docker 멀티스테이지 빌드를 통해 이미지 크기를 최대 78.9% 줄이는 방법 2025-04-12