반응형

Ollama?
Ollama는 로컬 환경에서 대형 언어 모델(LLM)과 기타 AI 모델을 실행할 수 있는 오픈소스 프로젝트이다. 복잡한 설정 없이 AI 모델을 쉽고 빠르게 사용할 수 있도록 경량화된 모델을 제공하고, GPT 계열 뿐만 아니라 다양한 모델을 지원한다.
Ollama 설치
Download Ollama on macOS
Download Ollama for macOS
ollama.com

Ollama Model Library
Ollama
Get up and running with large language models.
ollama.com
Model | Parameters | Size | Download |
DeepSeek-R1 | 7B | 4.7GB | ollama run deepseek-r1 |
DeepSeek-R1 | 671B | 404GB | ollama run deepseek-r1:671b |
Llama 3.3 | 70B | 43GB | ollama run llama3.3 |
Llama 3.2 | 3B | 2.0GB | ollama run llama3.2 |
Llama 3.2 | 1B | 1.3GB | ollama run llama3.2:1b |
Llama 3.2 Vision | 11B | 7.9GB | ollama run llama3.2-vision |
Llama 3.2 Vision | 90B | 55GB | ollama run llama3.2-vision:90b |
Llama 3.1 | 8B | 4.7GB | ollama run llama3.1 |
Llama 3.1 | 405B | 231GB | ollama run llama3.1:405b |
Phi 4 | 14B | 9.1GB | ollama run phi4 |
Phi 3 Mini | 3.8B | 2.3GB | ollama run phi3 |
Gemma 2 | 2B | 1.6GB | ollama run gemma2:2b |
Gemma 2 | 9B | 5.5GB | ollama run gemma2 |
Gemma 2 | 27B | 16GB | ollama run gemma2:27b |
Mistral | 7B | 4.1GB | ollama run mistral |
Moondream 2 | 1.4B | 829MB | ollama run moondream |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
LLaVA | 7B | 4.5GB | ollama run llava |
Solar | 10.7B | 6.1GB | ollama run solar |

DeepSeek?
DeepSeek은 최신 인공지능 연구를 기반으로 대형 언어 모델을 개발하는 프로젝트이다. 다양한 자연어 처리(NLP) 작업에서 활용할 수 있도록 설계된 고성능 AI 모델로 나는 deepseek-r1 모델을 사용할 것이다.
DeepSeek-R1?
R1은 최적화된 모델 구조로 적은 리소스 사용 및 고성능의 퍼포먼스를 제공한다. 정교한 문맥 이해와 자연스러운 문장 생성이 특징이다. 현재 ollama에서 지원해주는 모델 중 가장 많은 사용량를 차지하고 있다.
DeepSeek-R1:14B 모델 실행
ollama run deepseek-r1:14b


반응형
'AI' 카테고리의 다른 글
Open WebUI + Ollama 연동 (0) | 2025.02.27 |
---|