Ce guide vous aidera à configurer votre environnement local pour exécuter le modèle Phi-3 à l'aide d'Ollama. Vous pouvez exécuter le modèle de plusieurs façons, notamment en utilisant GitHub Codespaces, les conteneurs de développement de VS Code ou votre environnement local.
Vous pouvez exécuter ce modèle virtuellement en utilisant GitHub Codespaces. Le bouton ouvrira une instance de VS Code basée sur le web dans votre navigateur :
Une option similaire consiste à utiliser les conteneurs de développement de VS Code, qui ouvriront le projet dans votre VS Code local à l'aide de l'extension Dev Containers :
-
Lancez Docker Desktop (installez-le s'il n'est pas encore installé).
-
Ouvrez le projet :
-
Dans la fenêtre VS Code qui s'ouvre, une fois que les fichiers du projet apparaissent (cela peut prendre plusieurs minutes), ouvrez une fenêtre de terminal.
-
Continuez avec les étapes de déploiement.
-
Assurez-vous que les outils suivants sont installés :
-
Demandez à Ollama de télécharger et d'exécuter le modèle phi3:mini :
ollama run phi3:mini
Cela prendra quelques minutes pour télécharger le modèle.
-
Une fois que vous voyez "success" dans la sortie, vous pouvez envoyer un message à ce modèle depuis l'invite.
>>> Write a haiku about hungry hippos
-
Après quelques secondes, vous devriez voir une réponse arriver en flux depuis le modèle.
-
Pour en savoir plus sur les différentes techniques utilisées avec les modèles de langage, ouvrez le notebook Python ollama.ipynb et exécutez chaque cellule. Si vous avez utilisé un modèle autre que 'phi3:mini', modifiez le
MODEL_NAME
in the first cell. -
To have a conversation with the phi3:mini model from Python, open the Python file chat.py and run it. You can change the
MODEL_NAME
en haut du fichier selon vos besoins. Vous pouvez également modifier le message système ou ajouter des exemples few-shot si nécessaire.
Avertissement :
Ce document a été traduit à l'aide du service de traduction automatisée Co-op Translator. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour les informations critiques, il est recommandé de recourir à une traduction professionnelle réalisée par un humain. Nous déclinons toute responsabilité en cas de malentendus ou d'interprétations erronées résultant de l'utilisation de cette traduction.