Ces dernières années, le nombre de projets faisant tourner des larges modèles de langage a grossi rapidement. Parmi les plus intéresssants, on peut citer Ollama (dont la version non-censurée de llama2 répond à tous types de question même les plus bourrines indécentes) ou llamafile proposé par Mozilla.
Aujourd’hui en discutant avec plusieurs collègues de travail des LLMs en général, un d’entre nous a parlé de LM Studio, qu’il a découvert pendant hack.lu. Je suis donc allé dans la foulée sur leur site web pour l’installer et le tester.
Installation
Vous pouvez télécharger le fichier d’installation sur https://lmstudio.ai/ .
Les fichiers d’installation pour Linux, macOS et Windows sont disponibles sur la page d’accueil. Dans mon cas je suis sous Linux Mint, choisissez la version qui convient à votre système.

Sous Linux il suffit d’installer le fichier AppImage et, une fois le téléchargement terminé, de le rendre exécutable avec chmod +x LM-Studio-<No-de-votre-version>-x64.AppImage
Vous pouvez alors l’éxécuter : ./LM-Studio-<No-de-votre-version>-x64.AppImage

Entrée en la matière
LM Studio une fois lancé, vous pouvez cliquer sur le seul bouton de la page.

L’OnBoarding commence, vous pouvez cliquer sur « Download » pour télécharger DeekSeek-R1.

Patientez plus ou moins longtemps selon votre débit de connexion.

Avant de commencer à poser des questions, si vous n’aimez pas l’interface blanche qui pique les yeux, vous pouvez changer la couleur en vous rendant dans les réglages en bas à droite:

Sélectionnez la couleur de votre choix.

Voici ce que ça donne en dark, maintenant on peut passer à la suite.

Premiers tests
Vous pouvez l’utiliser avec les paramètres par défaut dans un premier temps, avec quelques questions dont vous connaissez déjà la réponse. La rapidité d’exécution dépendra des ressources de votre machine: CPU, RAM. GPU ou non, etc…

Même pour une question où la réponse est évidente, DeepSeek reste objectif et partage tous les éléments qui vous permettront de vous faire votre propre réfléxion, comme la version en ligne. C’est un peu le Acermendax des LLMs.
Personnalisez le modèle
Ensuite, si vous souhaitez le personnaliser ou juste tenter de comprendre comment fonctionne un modèle, vous trouverez ses paramètres à droite. Par défaut ils sont sur Basic mais vous pouvez choisir All (qu’on voit ci-dessous en bleu) pour tout avoir, la différence n’est pas énorme ceci dit.


Pour un accès plus rapide vous pouvez aussi les avoir en haut de la fenêtre.

Vous voilà maintenant prêt pour entrer facilement et rapidement dans le monde obscure des LLMs et les comprendre de l’intérieur.
Autres modèles
À part DeepSeek-R1 il existe d’autres modèles que vous pouvez tester facilement. Téléchargez, testez, comparez, c’est comme ça vous trouverez celui qui répond le mieux à vos besoins.
Cliquez d’abord sur le bouton violet en haut de page qui indique le modèle actuellement utilisé ou vous pouvez aussi cliquer sur l’icône « My models » à gauche de la fenêtre.

Vous pouvez ensuite taper le nom d’un modèle et cliquer sur le bouton bleu pour le rechercher.

Enfin vous pouvez choisir dans la liste proposée celui que vous souhaitez.

Raison de l’utiliser
Cerise sur le gâteau: Si le partage ou la fuite de données est une chose qui vous inquiète avec les LLMs ou votre entreprise refuse l’utilisation d’AI assistants à cause de ça, LM Studio (ainsi que Ollama ou llamafile mentionnés plus haut) est une excellente alternative, puisque tout reste sur votre machine.
Amusez-vous bien !
Pour ceux qui s’intéressent à la musique, voici le profile SoundCloud du collègue en question: https://soundcloud.com/andreafrittella
Et encore un autre de lui parce-que pourquoi pas: https://soundcloud.com/IrregularDiscoWorkers