Depuis quelques semaines j’ai testé, puis adopté sans m’en rendre compte, Orbit proposé par Mozilla. Si vous avez déjà testé Leo sur Brave Browser, vous retrouverez globalment les mêmes fonctionnalités. La principale différence est l’apparence, Orbit est proposé sous forme d’extension et s’intègre directement à la page consultée.
Avantages d’Orbit
Ce qu’on reproche souvent aux IA génératives c’est le traitement des données. Tout est pompé et repartagé de tous les côtés pour génerer de nouvelles réponses. Comme pour tout ce qui est nouveau, nous sommes actuellement dans une périodes où les IA sont suffisamment populaires pour être adoptées par la majorité des internautes mais sufisamment nouvelles pour ne pas être correctement régulées, on est un peu dans un ruée vers l’or.
Orbit propose une alternative respectueuse de la vie privée. Les données sont sauvegardées uniquement pendant le temps de traitement et effacées une fois la réponse fournie par l’instance de Mistral 7B gérée par Mozilla. Aucune donnée n’est partagée ni avec les développeusr du LLM, ni qui que ce soit d’autre, même si son hébergement sur Google Cloud pourrait soulever quelques questions.
Comment ça marche?
Tout d’abord, il vous suffit d’installer l’addon disponible sur le site de Mozilla. Une fois l’installation terminée, une icône à la Hal 9000 apparaîtra sur votre navigateur.
Le fonctionnement est simple et propose 2 fonctions: Résumer la page web qui est actuellement affichée sur Firefox ou discuter avec l’IA. Vous pouvez interagir via l´ícône qui se place par défaut en haut à droite du navigateur mais que vous pouvez bouger ailleurs, et qui propose 4 options quand on y amène le pointeur de la souris
– Paramètres en bas à gauche
– Suppression de l’icône en bas à droite
– Résumé de la page en haut à gauche
– Discussion avec Orbit en haut à droite
Résumé de page
Il est possible avec Orbit de résumer en quelques phrases le contenu d’une longue page de texte, ce qui permet d’avoir un aperçu du sujet quand on n’a pas le temps de tout lire ni besoin de la totalité des détails.
Comme vous pouvez le voir il s’agit d’une version toujours en beta, la gestion des langues n’est pas encore optimale mais Orbit comprend déjà quelques dialectes, même si les réponses sont toujours en anglais.
Discussion
Si vous êtes déjà habitué à ChatGPT, Microsoft Copilot ou Google Gemini, vous verrez que les discussions avec Orbit sont beaucoup plus basiques dans sa version actuellement proposée fin 2024. Il sera difficile de parler de tout et de rien ou d’aborder des sujets complexes. Mais pour parler de la page affichée et poser des questions sur son contenu, ça fait le job. Pour une première version le texte généré est assez cohérent.
Customisation intégrée
Un autre avantge d’Orbit est sa personnalisation facilement accessible et intuitive, vous pouvez choisir le format de la réponse souhaitée: points à puce, paragraphes, courtes phrases.
Projet à suivre
Il faudra voir que ce Mozilla AI proposera pour les prochaines versions et surtout pour la première version stable. Pour un premiet jet, c’est à la hauteur de ce qu’on peut attendre d’un tel projet. Le changement soudain de CEO ne devait, espérons le, pas avoir d’impact négatif sur l’évolution d’Orbit.
llamafile
Si, malgré les précautions prises par Mozilla pour protéger votre vie privée, vous avez toujours certaines réticences quant à l’utilisation d’Orbit, il existe toujours llamafile que vous pouvez faire tourner en local sur votre machine.
Pour l’utiliser, il vous suffit de le télécharger, de rendre exécutable le fichier avec chmod +x llava-v1.5-7b-q4.llamafile
et l’exécuter avec ./llava-v1.5-7b-q4.llamafile
.L’interface s’ouvrira alors automatiquement dans votre navigateur (ou vous pouvez l’ouvrir manuellement en vous rendant sur http://localhost:8080/).
Il ne vous reste plus qu’à optimiser les paramètres si besoin et à l’utiliser. Ici, idem, les réponses ne seront peut-être pas aussi conversationnelles que ChatGPT, mais au moins les données ne bougent pas de votre machine et ça vous assistera quand-même pour de nombreues tâches.
D’autres llamafiles utilisant d’autres LLMs sont disponibles sur le Github du projet comme TinyLlama, Mistral 7B, Gemma 2 et d’autres.
Enjoy !