Outils pour utilisateurs

Outils du site


fairdata:feuille_route_2020

Ceci est une ancienne révision du document !


Retour à atelier 2019-2020

Comment transformer les données hétérogènes semi-structurées (notamment issues de tableurs CSV) en données FAIR

Descriptif sommaire du projet

Nous savons que la plupart des historien-nes produisent des données de recherche sous forme de texte ou de tableurs. Retenons pour cet atelier le cas des tableurs. D'ailleurs les bases de données réalisées de manière empirique et sans formation sont au final des tableurs avec interface graphique de saisie.


La question posée en termes de défi à l'atelier est: ces données sont-elles irrémédiablement perdues après la recherche ou pourrait-on rendre ces données FAIR - i.e. réutilisables pour d'autres recherches et écrites dans des formats accessibles par les machines (et donc pas seulement lues sur un site web) ? Comment remettre les données dans le circuit, tant pour les chercheur-es eux-elles mêmes que pour les autres chercheur-es et le public ?


Le défi relevé dans cet atelier vise à réfléchir, collectivement, aux réquis des principes FAIR appliqué à histoire. Quelles sont les conditions pour rendre les données de la recherche (dans ce cas des données semistructurées) accessibles dans le sens d'un processus de repliquabilité de la production de connaissances et de réutilisation pour de nouvelles recherches ?

Les réponses à ces questions n'existent pas toutes faites, l'objectif de l'atelier est de construire ensemble des bonnes pratiques à ce sujet, tout en partant de l'expérience du projet symogih.org et autour des applications OntoME de modélisation des connaissances et Opentheso de gestion de vocabulaires contrôlés.


Feuille de route

  1. je répère un fichier Excel ou CSV contenant des données que je veux publier et rendre réutilisables
  2. je définis quelles sont les conditions de publication (licence)
  3. je créer une page de documentation de mon projet sur le wiki dédié à ce défi
  4. je documente mon choix et les données de base sur la page dédiée à mon projet du wiki
  5. je l'inspecte et analyse le contenu du fichier. En particulier je définis ce que sont les lignes (individus), à quels individus du monde réel (physique ou imaginaire) ils correspondent, et ce que sont les colonnes en tant que propriétés de ces individus.
  6. je modélise le fichier comme tel et les colonnes dans un projet OntoME


1. j'importe le fichier dans Pandas (Python) ou sqlite 2. je l'inspecte, modélise, décide ce que sont les lignes (individus) et les colonnes: leur propriétés des mentions de personnes ou des personnes (ou des sites archéologiques, etc.) les propriétés: ici lieux de naissance, dates, enseignements, etc. 3. je crée ou utilise un profil dans OntoME et je fais un mapping ontologique: qu'est-ce qu'un personne, un enseignement, un titre académique:  licencié en droit 4. je nettoye et crée un vocabulaire avec un seul terme par entrée 5. je l'importe dans Opentheso 6. je reçois des ark et discute des définitions avec la communauté 7. j'aligne avec les IdRef 8. je mouline un peu le tout avec Python 9. avec un librairie Python RDF j'écris dans le SPARQL ENDPOINT  de l'ABES 10. on peut réutiliser les données 11. on demande à Alexandre de faire un site web Py Projects pour publier des visualisations

fairdata/feuille_route_2020.1585910554.txt.gz · Dernière modification: 2020/04/03 12:42 par Francesco Beretta