Computer Science/AI (1) 썸네일형 리스트형 AI | Ollama란? 로컬에서 LLM을 실행하는 가장 쉬운 방법 서버에 GPU 드라이버를 설치하고 CUDA까지 사용할 수 있게 만들었다면, 이제 다음 단계는 명확하다.바로 실제로 AI 모델을 내 서버에서 실행해보는 것이다.이때 가장 쉽게 접근할 수 있는 도구가 바로 Ollama다.🔥 Ollama 한 줄 정의Ollama는 로컬 환경에서 LLM(대형 언어 모델)을 실행할 수 있게 해주는 런타임이자 플랫폼이다.조금 더 쉽게 말하면, ChatGPT 같은 AI 모델을 OpenAI 클라우드가 아니라내 서버 안에서 직접 실행할 수 있도록 도와주는 엔진이라고 보면 된다. 🧠 쉽게 설명하면보통 우리가 많이 쓰는 방식은 이런 구조다.사용자 → OpenAI API → 클라우드의 GPT 모델 → 응답 반면 Ollama는 이런 흐름으로 동작한다.사용자 → Ollama → 로컬 LLM 모.. 이전 1 다음