Outils pour utilisateurs

Outils du site


python:environnement_conda

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
python:environnement_conda [2022/02/28 02:24]
Francesco Beretta [Recette]
python:environnement_conda [2024/03/11 18:46] (Version actuelle)
Francesco Beretta [Activer un environnement dans Jupyter Lab]
Ligne 4: Ligne 4:
  
  
-====== Métadonnées et update de Conda ======+====== Métadonnées et update de Conda====== 
 + 
 +[[https://​docs.conda.io/​projects/​conda/​en/​latest/​user-guide/​getting-started.html#​managing-environments|Documentation et tutoriel]] concernant l'​utilisation de Conda.
  
-[[https://​docs.conda.io/​projects/​conda/​en/​latest/​user-guide/​getting-started.html#​managing-environments|Documentation et tutoriel]] concernant l'​utilisation de Conda 
  
  
Ligne 18: Ligne 19:
 <code >conda update conda</​code>​ <code >conda update conda</​code>​
  
-On peut alternativement installer les environnements avec Mamba, ce que nous ferons ici. 
-On exécute donc préalablement : 
-<code >mamba update mamba</​code>​ 
  
-La plupart des commandes de Mamba sont équivalentes à celles de Conda, la performance de gestion d'​environnements supérieure.+====== Créer manuellement un nouvel environnement ======
  
 +Documentation:​ [[https://​docs.conda.io/​projects/​conda/​en/​latest/​user-guide/​tasks/​manage-environments.html|managing environments]]
  
 +Lorsqu'​on souhaite créer un nouvel environnement Conda on peut procéder en listant les librairies à installer dans la commande de création ou en convoquant un texte qui contient la liste des librairies. Voici un exemple de la première méthode qui ajoute des librairies permettant de traiter des documents HTML et XML  Le nouvel environnement est 
  
-====== Créer un nouvel environnement ======+<​code>​ conda create --name py311_data_analysis python=3.11 ipykernel requests lxml pandas plotly matplotlib</​code>​
  
-Documentation[[https://​docs.conda.io/​projects/​conda/​en/​latest/​user-guide/tasks/​manage-environments.html|managing environments]]+Lister les librairies installées (seulement celles déclarées explicitement): 
 +<​code>​conda env export  ​--name py311_data_analysis --from-history<​/code>
  
  
-<​code> ​mamba create --name py39_analyse python=3.9 ipykernel pathlib plotly matplotlib scipy pandas xlrd statsmodels patsy </​code>​+Lister toutes les librairies et dépendances installées:​ 
 +<​code>​conda activate py311_data_analysis</​code>​
  
-Lister ​les bibliothèques de fonctions installées+On est ainsi positionné dans l'​environnement et on liste les librairies
-<​code>​mamba env list</​code>​+<​code>​conda list</​code>​
  
-<​code>​mamba activate py39_analyse</​code>​+<​code>​conda deactivate</​code> ​
  
-Manque ​la bibliothèque de visualisation:​ '​seaborn'​.+ 
 +Pour ajouter une librairire, par ex. la bibliothèque de visualisation:​ '​seaborn'​.
  
 Vérifier si elle est disponibles:​ Vérifier si elle est disponibles:​
 <​code>​conda search seaborn</​code>​ <​code>​conda search seaborn</​code>​
  
-Vérifier la version disponible (et conseillée) sur ce site : [[https://​anaconda.org/​search|Anaconda search package]]+Vérifier la version disponible (et conseillée) sur ce site : [[https://​anaconda.org/​search|Anaconda search package]] ​— choisir généralement la plus utilisée.
  
  
-Si ce n'est pas le casd'​abord ​sauvegarder la configuration ​de l'​environnement:​ +Avant de procéder, sauvegarder la liste des librairies ​de l'​environnement:​ 
-<​code>​conda env export --name ​py39_analyse ​--from-history > [exemple:] C:​\Users\your_name\Documents\espace_python\environments\py39_analyse_20220228.yml</​code>​+<​code>​conda env export --name ​py311_data_analysis ​--from-history > [exemple:] C:​\Users\your_name\Documents\espace_python\environments\py311_data_analysis_20220228.yml</​code>​
  
 En cas de pépin lors de l'​installation du nouveau paquet, on peut restaurer (c'​est-à-dire recréer) l'​environnement dans l'​état précis où il était lors de la sauvegarde: En cas de pépin lors de l'​installation du nouveau paquet, on peut restaurer (c'​est-à-dire recréer) l'​environnement dans l'​état précis où il était lors de la sauvegarde:
-<​code>​mamba env create --file [exemple:] C:​\Users\your_name\Documents\espace_python\environments\py39_analyse_20220228.yml</​code>​+<​code>​conda env create --file [exemple:] C:​\Users\your_name\Documents\espace_python\environments\py311_data_analysis_20220228.yml</​code>​
  
   * Vérifier ensuite les spécifications dans l'​entrepôt de bibliothèques : [[https://​anaconda.org/​anaconda/​seaborn | anaconda / packages / seaborn]] ​   * Vérifier ensuite les spécifications dans l'​entrepôt de bibliothèques : [[https://​anaconda.org/​anaconda/​seaborn | anaconda / packages / seaborn]] ​
Ligne 58: Ligne 61:
 <​code>​conda install seaborn</​code>​ <​code>​conda install seaborn</​code>​
  
-Pour supprimer un environnement:​  +Pour lister les librairies installées dans l'environnement ​Conda actif
-<​code>​ conda env remove ​--name ENVIRONMENT  ​--all</​code>​+<​code>​conda env export ​--from-history</​code>​
  
  
 +===== Supprimer un environnement: ​ =====
 +<​code>​ conda env remove --name ENVIRONMENT </​code>​
  
-====== Créer un nouvel environnement '​shn-pyshs'​ et l'​ajouter aux kernels de Jupyter Lab ====== 
  
-En règle générale, on utilise un environnement Conda par projet ou dépôt de code. Ceci permet de garantir une stabilité du code et d'​éviter que des ajouts de paquets ou des mises à jour produisent des effets non souhaités. Généralement les dépôts de code indiquent la liste des paquets à installer.+\\
  
-Aussi, il est fortement déconseillé de travailler et d'​ajouter des paquets ou librairies à l'​environnement //base// de Conda: il faut créer toujours de nouveaux environnements de travail. ​ 
  
-Ceux-ci peuvent devenir assez volumineux si on y ajoute tout type de bibliothèque de fonctions. Il est donc opportun de regrouper les bibliothèques,​ par exemple, par projet ou par thématiques:​ NLP, graphes, visualisations,​ machine learning, etc. 
  
-Dans un notebook Jupyter on pourra ensuite choisir entre les différents environnements moyennant qu'on suive les instructions indiquées ci-dessous. 
  
-Cf. ce [[https://​medium.com/​@ace139/​enable-multiple-kernels-in-jupyter-notebooks-6098c738fe72|billet de blog]]+====== Activer un environnement dans Jupyter Lab ======
  
  
  
-===== Recette =====+<​code>​conda activate py311_data_analysis</​code>​
  
-D'​abord cloner le [[https://​github.com/​Sciences-historiques-numeriques/​shn-pyshs|dépôt de code shn-pyshs]] dans le dossier de travail Python.+ATTENTION ​seulement __si non installé__,​ installer ipykernel (et toues les dépendances ipython)
  
 +<​code>​conda install ipykernel</​code>​
  
-Créer d'​abord le nouvel environnement **//​atelier//​** avec toutes ses librairies: 
-<​code>>​mamba env create -name shn-pyshs --file C:​\Users\your_name\Documents\espace_python\shn-pyshs\requirements.yml</​code>​ 
  
-L'activer: +Puis activer ​l'​ipykernel pour cet utilisateur 
-<​code>​conda activate shn-pyshs</​code>​+<​code>​python -m ipykernel install --user --name py311_data_analysis --display-name "​py311_data_analysis"​</​code>​
  
-Installer ipykernel (et toues les dépendances ipython) +Lister ​les kernels présents: 
-<​code>​conda install ipykernel</​code>​ +<​code>​jupyter kernelspec list</​code>​ 
- +Si tout s'est bien passé, on y trouvera le kernel ​'//​py311_data_analysis//'​
-Activer l'ipykernel pour cet utilisateur +
-<​code>​python -m ipykernel install --user --name atelier --display-name "​shn-pyshs"<​/code>+
  
 Désactier l'​environnement:​ Désactier l'​environnement:​
 <​code>​conda deactivate</​code>​ <​code>​conda deactivate</​code>​
  
-Activer l'​environnement principal Jupyter Lab: 
-<​code>​conda activate env_jupyterlab</​code>​ 
  
-Lister les kernels présents: 
-<​code>​jupyter kernelspec list</​code>​ 
-Si tout s'est bien passé, on y trouvera le kernel '//​shn-pyshs//'​ 
  
-Lancer ​JupyterLab:+ 
 + 
 +Plus tard, lancer ​JupyterLab:
 <​code>​jupyter lab</​code>​ <​code>​jupyter lab</​code>​
  
Ligne 116: Ligne 111:
 Pour supprimer un kernel Pour supprimer un kernel
 <​code>​jupyter kernelspec uninstall KERNELNAME</​code>​ <​code>​jupyter kernelspec uninstall KERNELNAME</​code>​
 +
 +\\
 +
 +
 +
 +====== Créer un nouvel environnement '​shn-pyshs'​ à partir d'une liste de librairie et l'​ajouter aux kernels de Jupyter Lab ======
 +
 +On présente ici la création d'un environnement Conda à partir d'une liste de librairies.
 +
 +
 +En règle générale, on utilise un environnement Conda par projet ou dépôt de code. Ceci permet de garantir une stabilité du code et d'​éviter que des ajouts de paquets ou des mises à jour produisent des effets non souhaités. Généralement les dépôts de code indiquent la liste des paquets à installer.
 +
 +Aussi, il est fortement déconseillé de travailler et d'​ajouter des paquets ou librairies à l'​environnement //base// de Conda: il faut créer toujours de nouveaux environnements de travail. ​
 +
 +Ceux-ci peuvent devenir assez volumineux si on y ajoute tout type de bibliothèque de fonctions. Il est donc opportun de regrouper les bibliothèques,​ par exemple, par projet ou par thématiques:​ NLP, graphes, visualisations,​ machine learning, etc.
 +
 +Dans un notebook Jupyter on pourra ensuite choisir entre les différents environnements moyennant qu'on suive les instructions indiquées ci-dessous.
 +
 +Cf. ce [[https://​medium.com/​@ace139/​enable-multiple-kernels-in-jupyter-notebooks-6098c738fe72|billet de blog]]
 +
 +
 +
 +===== Recette =====
 +
 +D'​abord cloner le [[https://​github.com/​Sciences-historiques-numeriques/​shn-pyshs|dépôt de code shn-pyshs]] dans le dossier de travail Python.
 +
 +
 +Créer d'​abord le nouvel environnement **//​shn-pyshs//​** avec toutes ses librairies:
 +<​code>​conda env create --name py310_data_analysis --file C:​\Users\your_name\Documents\espace_python\shn-pyshs\requirements.yml</​code>​
 +
  
python/environnement_conda.1646011470.txt.gz · Dernière modification: 2022/02/28 02:24 par Francesco Beretta