Outils pour utilisateurs

Outils du site


fairdata:feuille_route_2020

Ceci est une ancienne révision du document !


Retour

Comment transformer les données hétérogènes semi-structurées (notamment issues de tableurs et CSV) en données FAIR

Descriptif sommaire du projet

Nous savons que la plupart des historien-nes produisent des données de recherche sous forme de texte ou de tableurs. Retenons pour cet atelier le cas des tableurs. D'ailleurs les bases de données réalisées de manière empirique et sans formation sont au final des tableurs avec interface graphique de saisie.


La question posée en termes de défi à l'atelier est: ces données sont-elles irrémédiablement perdues après la recherche ou pourrait-on rendre ces données FAIR - i.e. réutilisables pour d'autres recherches et écrites dans des formats accessibles par les machines (et donc pas seulement lues sur un site web) ? Comment remettre les données dans le circuit, tant pour les chercheur-es eux-elles mêmes que pour les autres chercheur-es et le public ?


Le défi relevé dans cet atelier vise à réfléchir, collectivement, aux réquis des principes FAIR appliqué à histoire. Quelles sont les conditions pour rendre les données de la recherche (dans ce cas des données semistructurées) accessibles dans le sens d'un processus de repliquabilité de la production des connaissances et de réutilisation pour de nouvelles recherches ?

Les réponses à ces questions n'existent pas toutes faites, l'objectif de l'atelier est de construire ensemble des bonnes pratiques à ce sujet, tout en partant de l'expérience du projet symogih.org et autour des applications OntoME de modélisation des connaissances et Opentheso de gestion de vocabulaires contrôlés.


Feuille de route

  1. je répère un fichier Excel ou CSV contenant des données que je veux publier et rendre réutilisables
  2. je définis quelles sont les conditions de publication (licence)
  3. je créer une page de documentation de mon projet sur le wiki dédié à ce défi – licence de la documentation du projet CC 4.0 BY SA donc mention explicite de l'auteur (?)
  4. je documente mon choix et les données de base sur la page dédiée à mon projet du wiki
  5. je l'inspecte et analyse le contenu du fichier. En particulier je définis ce que sont les lignes (individus, mentions d'individus, etc.), à quels individus du monde réel (physique ou imaginaire) ils correspondent, et ce que sont les colonnes en tant que propriétés de ces individus.
  6. je modélise le fichier comme tel, puis ses colonnes dans un projet OntoME
  7. j'importe le fichier dans Pandas (Python) ou sqlite je nettoye et crée un vocabulaire avec un seul terme par entrée
  8. je l'importe dans Opentheso
  9. je reçois des identifiants ark pour chaque terme et discute des définitions avec la communauté
  10. j'aligne les termes avec les IdRef ou d'autres référentiels
  11. j'inspecte mes données après le mapping avec l'ontologie dans OntoME et l'alignement avec Opentheso
  12. je récupère dans mon fichier les identifiants correspondants (en utilisant Python)
  13. je nettoye automatiquement ou à la main les données
  14. avec un librairie Python RDF j'écris dans le SPARQL ENDPOINT de l'ABES dans un graphe dédié à mon projet
  15. je documente tout le processus sur le wiki ou dans mes carnets jupyter publiés sur GitHub
  16. j'explore les données avec des librairies Python et document dans un carnet public ma démarche
  17. je me concerte avec d'autres collèques et je fais une proposition de site web PyProjects afin de publier mes données et des analyses, éventuellement interactives sous forme lisible par l'humain.


fairdata/feuille_route_2020.1589542514.txt.gz · Dernière modification: 2020/05/15 13:35 par Francesco Beretta