Catégories
IA news Tutos

Ollama : Le Lama qui Code !

Imaginez un lama. Maintenant, imaginez ce lama en train de coder. Vous voyez cette image ? Eh bien, c’est exactement ce que n’est pas Ollama. Mais ça aurait été drôle, non ?

Ollama est en réalité un cadre pour exécuter des modèles de langage de grande taille localement. C’est comme avoir un superordinateur dans votre poche, mais sans le risque de brûler votre pantalon. Et il est compatible avec macOS, Windows, Linux et Docker. Donc, peu importe si vous êtes un fan de la pomme, un fenêtre-ophile, un pingouin dans l’âme ou un docker (ce n’est pas un mot, mais ça devrait l’être), Ollama est là pour vous.

Il propose des bibliothèques pour différents langages de programmation. Vous êtes plutôt Python ? Pas de problème. Vous préférez JavaScript ? Aucun souci. Vous codez en COBOL ? Euh… Bonne chance.

Et ce n’est pas tout ! Ollama vous permet d’importer et de personnaliser des modèles à l’aide de fichiers Modelfile. C’est comme un défilé de mode, mais pour les modèles de langage. Chic, non ?

Enfin, Ollama propose une interface en ligne de commande (CLI) et une API REST pour gérer les modèles. Parce que qui n’aime pas taper des commandes obscures dans un terminal noir et blanc ?

Pour installer Ollama.

1. Télécharger Ollama :

  • Rendez-vous sur le site officiel d’Ollama et téléchargez la dernière version de l’application pour Windows.
  • https://ollama.com/download

2. Installer Ollama :

  • Une fois le téléchargement terminé, ouvrez le fichier .exe que vous venez de télécharger.
  • Suivez les instructions à l’écran pour installer Ollama sur votre ordinateur.

3. Ouvrir le terminal puis taper « Ollama »

  • Si cela fonctionne, tout est OK.

4. Installer le modèle Mistral

  • Dans le terminal, tapez : ollama run mistral
  • Vous trouverez tous les modèles ici. https://ollama.com/library
  • Une fois le modèle téléchargé, tapez « /bye » pour quitter.

5. Entrer dans le détail d’un modèle

Pour lire un fichier sans entrer dans le chat :

  • Tapez dans le terminal :

ollama run lama2 « Résumez ce fichier : $(cat README.md) »

En anglais :

ollama run llama2 « Summarize this file: $(cat README.md) »

Travailler avec des images :

  • On utilise LLAVA.
  • Tapez ollama run llava.
  • Posez ensuite des questions sur l’image :

What’s in this image? /Users/jmorgan/Desktop/smile.png

Exemple de réponse :

The image features a yellow smiley face, which is likely the central focus of the picture.

Ok, bon, là on va personnaliser le modèle, alors tenez-vous à votre slip, ça va décoller !

Bon, on va commencer par créer un fichier « Modelfile ».

Et dedans, on va écrire cela :

  • From, suivi du modèle à utiliser
  • Et derrière system, on écrit le rôle que l’on veut lui donner.

From llama2

PARAMETER temperature 1

SYSTEM «  » »

You are Mario from Super Mario Bros, acting as an assistant.

«  » »

Une fois tout cela écrit, on va créer notre propre modèle.

  • On va dans le dossier où l’on a créé le fichier « Modelfile » avec le terminal.
  • Puis on tape :

ollama create NAME -f ./Modelfile

Pour lancer notre modèle, c’est comme ce qu’on a vu plus haut :

ollama run NAME

Bien sûr, tu remplaces « NAME » par ce que tu veux.

Si tu n’as pas d’idée ou si tu as juste la flemme, va sur le site suivant, il y a déjà plein de modèles créés :

https://openwebui.com/

Bon, là tu trouveras plein d’autres trucs intéressants à faire avec les lamas .

https://github.com/ollama/ollama

https://github.com/ollama/ollama/tree/main/examples/modelfile-mario

Alors, si vous voulez exploiter des modèles de langage avancés sur vos systèmes locaux, donnez une chance aux lama qui code.

Après tout, qui pourrait résister à un lama qui code ?

Une petite vidéo