## Installer sous macOS ``` brew install ollama ``` https://formulae.brew.sh/formula/ollama ## Installer sous GNU/Linux ``` curl -fsSL https://ollama.com/install.sh | sh ``` https://ollama.com/download/linux ## Lancer le modèle Phi-3 medium en écoute ``` OLLAMA_HOST=<IP>:11434 ollama run phi3:medium ``` ## Ressources complémentaires ### Embedding models https://ollama.com/blog/embedding-models ### Déploiement d’un LLM avec RAG local Ollama et PrivateGPT [Déploiement d'un LLM avec RAG local Ollama et PrivateGPT](https://medium.com/@omarechal/d%C3%A9ploiement-dun-llm-avec-rag-local-ollama-et-privategpt-27a9ea9c2bce) ### Use Ollama with any GGUF Model on Hugging Face Hub https://huggingface.co/docs/hub/en/ollama