Comment faire fonctionner une IA générative en local sur son ordinateur
Comment faire fonctionner une IA générative en local sur son ordinateur ? L'opération est aujourd'hui relativement simple, bien qu'il faille avoir une machine assez performante pour pouvoir en profiter correctement.
Vous avez probablement déjà testé un ou plusieurs moteurs d’IA générative comme ChatGPT ou Google Bard. Si populaires que soient ces outils dans le cloud, il est aussi possible de les installer sur votre propre ordinateur. Ce faisant, vous gagnez en confidentialité, et vous n’aurez pas de souci de non disponibilité. Encore faut-il savoir comment procéder.
Comment faire fonctionner une IA générative en local sur son ordinateur
Pour commencer, il vous faut un programme pour exécuter l’IA et vous aurez besoin d’un grand modèle de langage (LLM) pour générer les réponses. Ces LLM sont à la base des générateurs de texte. GPT-4 est le dernier en date, derrière ChatGPT, et Google a déployé récemment Gemini, derrière Google Bard. Si vous n’avez jamais entendu parler de LLM, voici une explication simple. Les LLM sont entraînés sur de grandes quantités de données et ils apprennent à reconnaître les relations entre les mots et phrases. Dit autrement, les LLM sont des moteurs de correction automatique évolués. Ils ne « savent » pas vraiment quoi que ce soit, mais ils reconnaissent comment les mots devraient s’assembler pour paraître naturels et avoir du sens. À haut niveau, le résultat semble être parfaitement réel. C’est bien évidemment plus complexe que cela, mais c’est l’idée générale.
Pour faire fonctionner vos propres LLM, vous n’avez pas besoin d’être une grande entreprise ou autre : il y en a plusieurs disponibles pour le grand public, dont celui de Meta, LLaMa ; d’autres sont développés par des chercheurs et des bénévoles. L’idée générale est que les LLMs ainsi accessibles aident l’innovation et améliorent la transparence sur le sujet.
Dans ce guide, nous utiliserons LM Studio pour vous montrer l’installation locale d’un LLM. C’est l’une des meilleures options actuellement. Gratuite à utiliser et accessible sur Windows, macOS et Linux.
Comment installer un LLM en local
La première étape est de télécharger LM Studio depuis le site officiel et de vérifier la configuration minimale demandée : utiliser un LLM demande beaucoup de ressources. Il vous faudra un ordinateur Windows ou Linux supportant AVX2 (les machines récentes) ou Mac avec puce Apple Silicon sous macOS 13.6 ou plus récent et 16 Go de RAM sont recommandés. Sur les PC, il faut au moins 6 Go de VRAM.
Une fois logiciel lancé, il faut trouver un LLM à télécharger et utiliser. L’un des avantages de LM Studio, c’est qu’il vous recommande des LLM intéressants sur l’écran principal. Aussi, si vous n’avez aucune idée, vous pouvez choisir dans cette liste.
Vous trouverez des LLMs de toutes tailles, complexités, sources de données, objectifs et vitesses. N’hésitez pas à fouiller sur le web pour connaître les spécificités de chacun. Les LLM peuvent peser plusieurs Go.
Si vous voyez un LLM qui vous intéresse sur l’écran d’accueil, cliquez sur Télécharger. Autrement, il faut effectuer une recherche ou coller une URL dans la zone de texte en haut. Vous pourrez voir la taille de chaque LLM et la date de dernière mise à jour. Vous pouvez aussi filtrer les résultats pour visualiser les plus téléchargés.
Vous pouvez installer autant de LLM que votre machine le permet, mais s’il y en a au moins un sur votre système, il apparaîtra dans le panneau Mes modèles (cliquez sur l’icône en forme de dossier sur la gauche pour y accéder). De là, vous pourrez voir les informations de chaque modèle installé, vérifier les mises à jour et supprimer des modèles.
Pour commencer à générer du texte, ouvrez le panneau de chat via l’icône en forme de bulle de dialogue sur la gauche. Choisissez le modèle à utiliser en haut et saisissez votre prompt dans la boîte de texte en bas. Appuyez sur Entrée. La sortie apparaîtra de manière très similaire aux autres LLMs.
Sur la droite, vous pouvez contrôler un certain nombre de paramètres relatifs au LLM, comme la manière de gérer les réponses longues, la délégation du calcul au GPU ou la gestion du « pré-prompt », pour indiquer au LLM de toujours répondre dans un style ou un ton particuliers, par exemple.
Cliquez sur le bouton New chat sur la gauche pour démarrer une nouvelle conversation et vos anciennes discussions sont à retrouver juste dessous, si vous avez besoin d’y revenir. Lorsque la génération d’une réponse est terminée, vous pouvez prendre une capture d’écran, copier le texte ou générer une nouvelle réponse avec le même prompt.
Et voilà ! Vous avez toutes les bases pour utiliser un LLM en local. LM Studio est un très bon point d’entrée, très simple si vous êtes un parfait débutant.