🚀 Boostez votre efficacité : Le guide ultime pour déployer Ollama et Open WebUI sur un cluster Kubernetes local 🛠️


Dans un monde où la rapidité et l’efficacité sont des atouts majeurs, maîtriser les outils technologiques de pointe est essentiel pour rester compétitif. 🚀 Boostez votre efficacité en découvrant comment déployer facilement Ollama et Open WebUI sur un cluster Kubernetes local à l’aide de Docker Desktop. Ce guide ultime vous accompagnera pas à pas pour transformer une tâche complexe en une opération fluide et intuitive. En optimisant vos flux de travail et en renforçant l’infrastructure de votre entreprise. Préparez vos outils 🛠️, l’excellence opérationnelle est à portée de main !

Prérequis

  • Docker Desktop installĂ© sur votre machine (assurez-vous que l’option Kubernetes est activĂ©e).
  • kubectl installĂ© et configurĂ© pour se connecter Ă  votre cluster Kubernetes local.
  • Une connexion Internet pour tĂ©lĂ©charger les images Docker nĂ©cessaires.

Étape 1 : Activer Kubernetes dans Docker Desktop

  1. Ouvrez Docker Desktop.
  2. Allez dans les Paramètres (Settings).
  3. Dans l’onglet Kubernetes, cochez « Enable Kubernetes ».
  4. Cliquez sur « Apply & Restart » et attendez que Kubernetes soit activé.

Étape 2 : VĂ©rifier l’installation de Kubernetes

Ouvrez un terminal et exĂ©cutez :

kubectl get nodes

Vous devriez voir un nœud avec le statut Ready.

Étape 3 : Préparer les déploiements Kubernetes

DĂ©ployer Ollama

  1. Créer un fichier de déploiement pour Ollama, par exemple ollama-deployment.yaml.
apiVersion: apps/v1
kind: Deployment
metadata:
  name: ollama-deployment
spec:
  replicas: 1
  selector:
    matchLabels:
      app: ollama
  template:
    metadata:
      labels:
        app: ollama
    spec:
      containers:
      - name: ollama
        image: ollama/ollama:latest
        ports:
        - containerPort: 8000
  1. Créer un service pour exposer Ollama.
apiVersion: v1
kind: Service
metadata:
  name: ollama-service
spec:
  type: LoadBalancer
  selector:
    app: ollama
  ports:
  - protocol: TCP
    port: 80
    targetPort: 8000
  1. Appliquer les fichiers de configuration :
kubectl apply -f ollama-deployment.yaml
kubectl apply -f ollama-service.yaml

DĂ©ployer Open WebUI

  1. Créer un fichier de déploiement pour Open WebUI, par exemple openwebui-deployment.yaml.
apiVersion: apps/v1
kind: Deployment
metadata:
  name: openwebui-deployment
spec:
  replicas: 1
  selector:
    matchLabels:
      app: openwebui
  template:
    metadata:
      labels:
        app: openwebui
    spec:
      containers:
      - name: openwebui
        image: openwebui/openwebui:latest
        ports:
        - containerPort: 8080
  1. Créer un service pour exposer Open WebUI.
apiVersion: v1
kind: Service
metadata:
  name: openwebui-service
spec:
  type: LoadBalancer
  selector:
    app: openwebui
  ports:
  - protocol: TCP
    port: 81
    targetPort: 8080
  1. Appliquer les fichiers de configuration :
kubectl apply -f openwebui-deployment.yaml
kubectl apply -f openwebui-service.yaml

Étape 4 : Vérifier les déploiements

  1. VĂ©rifier les pods :
kubectl get pods

Assurez-vous que les pods pour Ollama et Open WebUI sont en cours d’exĂ©cution.

  1. VĂ©rifier les services :
kubectl get services

Notez les adresses IP externes attribuées aux services.

Étape 5 : Accéder aux applications

  1. AccĂ©der Ă  Ollama :

Ouvrez un navigateur et allez Ă  http://localhost/ ou utilisez l’adresse IP et le port spĂ©cifiĂ©s.

  1. AccĂ©der Ă  Open WebUI :

Ouvrez un navigateur et allez Ă  http://localhost:81/ ou utilisez l’adresse IP et le port spĂ©cifiĂ©s.

Remarques supplémentaires

  • Images Docker : Assurez-vous que les images Docker ollama/ollama:latest et openwebui/openwebui:latest existent. Sinon, vous devrez peut-ĂŞtre construire vos propres images Docker ou utiliser celles disponibles sur Docker Hub.
  • Ports : Si les ports 80 et 81 sont dĂ©jĂ  utilisĂ©s, vous pouvez les modifier dans les fichiers de service.
  • LoadBalancer : Sur un cluster Kubernetes local, le type LoadBalancer peut ne pas fonctionner comme prĂ©vu. Vous pouvez utiliser le type NodePort ou installer MetalLB pour simuler un LoadBalancer.

Exemple avec NodePort

Modifier les services comme suit :

spec:
  type: NodePort
  ports:
  - protocol: TCP
    port: 80
    targetPort: 8000
    nodePort: 30080

Vous pouvez alors accĂ©der Ă  l’application via http://localhost:30080/.

Conclusion

Vous avez maintenant dĂ©ployĂ© Ollama et Open WebUI sur votre cluster Kubernetes local avec Docker Desktop. Vous pouvez interagir avec ces applications via votre navigateur ou d’autres clients appropriĂ©s.

About oussama abai

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

RĂ©soudre : *
39 ⁄ 13 =