Skip to content

Installer un modèle IA local avec Ollama

Objectif

Installer et utiliser des modèles d'intelligence artificielle localement sur Debian 12 avec Ollama, sans GPU nécessaire.

Prérequis

  • Système Debian 12

  • Accès root (les commandes sont exécutées en super-utilisateur)

  • 8 Go de RAM minimum (16 Go recommandé)

  • 20 Go d'espace disque libre

1. Mettre à jour le système

apt update && apt upgrade -y

2. (Facultatif) Installer Docker si nécessaire

apt install -y docker.io
systemctl enable docker
systemctl start docker
usermod -aG docker $USER

💡 Déconnexion/reconnexion requise pour appliquer les droits Docker.

3. Installer Ollama

Option A : Installation native (recommandée)

curl -fsSL https://ollama.com/install.sh | sh

✅ Vérification :

ollama --version

Option B : Via Docker

docker run -d -p 11434:11434 --name ollama ollama/ollama

4. Lancer un modèle IA

Télécharger et exécuter un modèle :

ollama run mistral

📦 D'autres modèles disponibles : llama2, gemma, phi, codellama, etc.

👉 Liste complète : https://ollama.com/library

5. (Optionnel) Ajouter une interface web (Open WebUI)

git clone https://github.com/open-webui/open-webui.git
cd open-webui
docker compose up -d

Accès via navigateur :

http://192.168.X.X:3000

Conclusion

Ollama permet de faire tourner des modèles d’IA localement sans GPU, avec de très bonnes performances sur des modèles quantisés. Il s'intègre facilement dans un usage personnel, professionnel ou de développement.

💡 Pour aller plus loin :

  • Utiliser l’API HTTP Ollama dans vos scripts Python

  • Tester via Text Generation WebUI, LM Studio, etc.

  • Déployer sur d'autres serveurs via Portainer ou Swarm