## Installer sous macOS
```
brew install ollama
```
https://formulae.brew.sh/formula/ollama
## Installer sous GNU/Linux
```
curl -fsSL https://ollama.com/install.sh | sh
```
https://ollama.com/download/linux
## Lancer le modèle Phi-3 medium en écoute
```
OLLAMA_HOST=<IP>:11434 ollama run phi3:medium
```
## Ressources complémentaires
### Embedding models
https://ollama.com/blog/embedding-models
### Déploiement d’un LLM avec RAG local Ollama et PrivateGPT
[Déploiement d'un LLM avec RAG local Ollama et PrivateGPT](https://medium.com/@omarechal/d%C3%A9ploiement-dun-llm-avec-rag-local-ollama-et-privategpt-27a9ea9c2bce)
### Use Ollama with any GGUF Model on Hugging Face Hub
https://huggingface.co/docs/hub/en/ollama