![](https://www.developpez.com/images/logos/intelligence-artificielle2.png)
Voici quelques informations concernant DoctorGPT :
Dépendances
Installation
Installez toutes les dépendances en une seule ligne à l'aide de pip
Entraînement
Afin d'entraîner le modèle, vous pouvez exécuter le notebook training.ipynb localement ou à distance via un service cloud comme Google Colab Pro. Le processus d'entraînement nécessite une GPU, et si vous n'en avez pas, l'option la plus accessible que j'ai trouvée est d'utiliser Google Colab Pro qui coûte 10$/mois. La durée totale de l'entraînement pour DoctorGPT, y compris l'ajustement supervisé du modèle LLama initial sur des données médicales personnalisées, ainsi que son amélioration via l'apprentissage par renforcement à partir du feedback de l'IA conditionnelle, a pris 24 heures sur une instance payante de Google Colab.
Entraînement local
- Numpy (Utilise des opérations mathématiques matricielles)
- PyTorch (Construit des modèles de Deep Learning)
- Datasets (Accéde aux datasets du hub huggingface)
- Huggingface_hub (accès aux données et modèles de huggingface)
- Transformers (Accès aux modèles du hub HuggingFace)
- Trl (Transformer Reinforcement Learning. Et fine-tuning.)
- Bitsandbytes (rend les modèles plus petits, alias "quantization"
- Sentencepiece (schéma de codage par paires d'octets, alias "tokenization"
- OpenAI (Création de données de modèles synthétiques de réglage fin et de récompense)
- TVM (Tensor Virtual Machine, convertit le modèle onnx pour une utilisation multiplateforme efficace)
- Peft (Parameter Efficient Fine Tuning, utilisation de l'adaptation de rang faible (LoRa) pour le réglage fin)
- Onnx (Conversion du modèle entraîné au format universel)
Installation
Installez toutes les dépendances en une seule ligne à l'aide de pip
Code : | Sélectionner tout |
pip install numpy torch datasets huggingface_hub transformers trl bitsandbytes sentencepiece openai tvm peft onnx
Afin d'entraîner le modèle, vous pouvez exécuter le notebook training.ipynb localement ou à distance via un service cloud comme Google Colab Pro. Le processus d'entraînement nécessite une GPU, et si vous n'en avez pas, l'option la plus accessible que j'ai trouvée est d'utiliser Google Colab Pro qui coûte 10$/mois. La durée totale de l'entraînement pour DoctorGPT, y compris l'ajustement supervisé du modèle LLama initial sur des données médicales personnalisées, ainsi que son amélioration via l'apprentissage par renforcement à partir du feedback de l'IA conditionnelle, a pris 24 heures sur une instance payante de Google Colab.
Entraînement local
Code : | Sélectionner tout |
1 2 | git clone https://github.com/llSourcell/DoctorGPT.git jupyter training.ipynb |
Et vous ?
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
Voir aussi :
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
Un autre témoignage de l'importance de l'IA dans la santé ?
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
Vous avez lu gratuitement 1 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.