Interface de chat IA développée pour les modèles Ollama, permettant une interaction efficace et intuitive avec le modèle Mistral.
Avant d'utiliser ce projet, assurez-vous que les éléments suivants sont installés sur votre système :
- Ollama
- Python 3.x
Note : Les instructions ci-dessous s'appliquent aux systèmes macOS et Windows.
Téléchargez et installez Ollama en suivant les instructions sur le site officiel :
Télécharger Ollama.
Après avoir configuré Ollama, exécutez la commande suivante dans votre terminal (macOS) ou PowerShell (Windows) pour installer le modèle Mistral :
ollama run mistral
Vérifiez que Python 3.x est installé sur votre système. Ensuite, installez les dépendances nécessaires en exécutant :
pip install -r requirements.txt
Exécutez l'application avec la commande suivante :
python app.py
Une fois l'application démarrée, ouvrez l'URL affichée dans la sortie du terminal ou de PowerShell pour accéder à l'application sur localhost.
Si vous avez des questions ou des problèmes, n'hésitez pas à ouvrir une issue.
frontend/
: Interface utilisateur en HTML/CSS/JSbackend/
: API Flask