Configurer Ollama
Dans ce guide, nous allons parcourir les étapes pour installer OLLaMA (Open Large Language Model Assistant) sur macOS, Linux et Windows. OLLaMA est un modèle de langage open-source qui peut être utilisé pour diverses tâches de traitement du langage naturel en mode local. Nous fournirons également un exemple d'utilisation d'OLLaMA en Python.
Installation
L'installation fonctionne sur Linux, macOS et Windows.
Téléchargement et installation :
-
Téléchargez l'installeur OLLaMA depuis le site officiel.
-
Double-cliquez sur le fichier téléchargé et suivez l'assistant d'installation.
Utilisation d'un modèle préconstruit
Pour exécuter et discuter depuis le terminal avec un modèle préconstruit comme Llama 3.2, suivez ces étapes :
- Télécharger le modèle :
ollama pull llama3.2
- Exécuter le modèle :
ollama run llama3.2
Bibliothèque de modèles
OLLaMA propose une bibliothèque de modèles préconstruits que vous pouvez facilement télécharger et utiliser. Les modèles à choisir se trouvent sur la bibliothèque Ollama.
🧐 Note : Assurez-vous que votre GPU dispose de suffisamment de RAM pour exécuter le modèle choisi. Par exemple, vous aurez besoin d'au moins 8 Go de RAM pour les modèles 7B, 16 Go pour les modèles 13B, et 32 Go pour les modèles 33B. Pour savoir quel modèle exécuter sur votre carte graphique, consultez les spécifications GPU.
Utilisation d'OLLaMA en Python
Voici un exemple d'utilisation d'OLLaMA en Python :
from ollama import OLLaMA
# Initialiser le modèle
model = OLLaMA("llama3.2")
# Générer du texte
prompt = "Quelle est la capitale de la France ?"
generated_text = model.generate(prompt)
print(generated_text)
Dans cet exemple, nous importons la classe OLLaMA, initialisons le modèle avec le modèle préconstruit souhaité (par exemple, "llama3.2"), et générons du texte à partir d'une invite donnée.
Commandes supplémentaires
ollama rm llama3.2
: Supprimer un modèle téléchargéollama cp llama3.2 my-model
: Copier un modèleollama list
: Lister les modèles téléchargés sur votre ordinateurollama ps
: Lister les modèles actuellement chargésollama stop llama3.2
: Arrêter un modèle en cours d'exécution
Utilisation via Docker
Pour utiliser OLLaMA via Docker, suivez ces étapes :
-
Télécharger l'image Docker :
Vous pouvez tirer l'image Docker officielle d'OLLaMA depuis Docker Hub en utilisant la commande suivante :
docker pull ollama/ollama
-
Exécuter un conteneur Docker :
Une fois l'image téléchargée, vous pouvez exécuter un conteneur Docker avec OLLaMA. Par exemple, pour exécuter le modèle
llama3.2
:docker run -it --gpus all ollama/ollama ollama run llama3.2
Assurez-vous que Docker est configuré pour utiliser votre GPU, car les modèles de langage nécessitent souvent des ressources GPU pour fonctionner efficacement.
-
Utiliser des volumes pour les modèles :
Si vous souhaitez persister les modèles téléchargés entre les exécutions de conteneurs, vous pouvez monter un volume Docker. Cela permet de stocker les modèles sur votre machine hôte :
docker run -it --gpus all -v /path/to/models:/root/.ollama ollama/ollama ollama run llama3.2
Remplacez
/path/to/models
par le chemin où vous souhaitez stocker les modèles sur votre machine hôte.
En utilisant Docker, vous pouvez facilement gérer les dépendances et les environnements pour OLLaMA, ce qui est particulièrement utile pour les déploiements sur différentes machines ou dans des environnements de développement isolés.