Ollama est un outil open-source permettant de faire tourner des modèles de langage locaux (LLM) directement sur macOS, Windows et Linux. Sans nécessiter d'expertise cloud, il supporte nativement Llama 3, Mistral, Gemma et Phi-3. Conçu pour les développeurs, Ollama intègre une API REST et offre une accélération matérielle GPU et CPU. Idéal pour garantir la confidentialité des données (self-hosting), l'inférence hors-ligne et le prototypage rapide d'applications IA génératives sans coûts liés aux API propriétaires.