Outils pour utilisateurs

Outils du site


besson_sylvain:economiste_juriste_documentation

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
besson_sylvain:economiste_juriste_documentation [2021/03/25 18:46]
Sylvain Besson
besson_sylvain:economiste_juriste_documentation [2021/10/28 13:43] (Version actuelle)
Sylvain Besson
Ligne 1: Ligne 1:
 +Allez vers la [[economist_jurist|page précédente - accueil]]
 ====== Documentation ====== ====== Documentation ======
- 
- 
-=====SPARQL===== 
- 
-SPARQL (**S**PARQL **P**rotocol and **R**DF** Q**uery **L**anguage - [[https://​fr.wikipedia.org/​wiki/​SPARQL|page fr wikipedia]]) est langage de requêtes. Il permet d’interroger,​ supprimer, modifier des données qui se trouve au format RDF (**R**esource **D**escription **F**ramework - [[https://​fr.wikipedia.org/​wiki/​Resource_Description_Framework|page fr wikipedia]]). Il est apparu en 2008 et est un standard recommandé par le [[https://​www.w3.org/​|W3C]]. Comme le RDF, il repose sur l'​utilisation des triplets. C'​est-à-dire qu'une donnée est composée de trois informations:​ un sujet, un prédicat et un objet. À l'​instar d'une phrase composée d'un sujet, d'un verbe et d'un complément,​ ici une donnée est répartie entre : 
- 
-  * un **sujet**, la ressource à décrire 
-  * un **prédicat**,​ le type de propriété pour laquelle est applicable la ressource 
-  * un **objet**, une autre ressource ou donnée; la valeur de la propriété 
- 
-exemple: 
- 
-<​http://​dbpedia.org/​resource/​Yuri_Maltsev>​ dpb:​birthDate <"​1950-12-31">​ 
- 
-Il est possible de "​traduire"​ ce triplet de la façon suivante: Yuri Maltsev (sujet) est né (prédicat) le 31 décembre 1950 (objet). 
- 
-"​dpb:"​ est un espace de nom qui dans lequel sont regroupés tous les types de ressources de dbpedia. Cela permet de faire en sorte que tout le monde utilise le même vocabulaire pour décrire des choses semblables. ​ 
- 
-vocabulaire de base à utiliser pour le langage de requête SPARQL: ​ 
- 
-<​code>​ 
-PREFIX # définit des espaces de noms 
- 
-SELECT # permet de choisir les variables du résultat, parmi les résultats de la clause WHERE 
-SELECT distinct # enleve les doublons parmi les couples 
-SELECT * # conserver toutes les variables de la requête 
- 
-WHERE # contient des triplets qui définissent le pattern recherché 
- 
--------------------------------------------------------- 
- 
-FILTER # permet de mettre des conditions 
-GROUP BY # partitionner la solution en plusieurs groupes, sur lesquels on peut appliquer une fonction d’agrégat. 
-HAVING # Indique les valeurs lorsque les conditions sont respectés avec des agrégats de valeurs 
-BIND # sert à définir de nouvelles variables et à leur affecter une valeur. 
-LIMIT # permet de mettre une limite sur le nombre de résultats affichés 
-OFFSET # signifie qu’on ”passe” les n premières solutions. 
-OPTIONAL # on peut mettre des parties optionnelles,​ même lorsque qu'il ne pas de valeurs dans l'​objet 
-SERVICE # permet d'​agréger des points d'​accès SPARQL 
- 
--------------------------------------------------------- 
- 
-ASK # retourne un booléen indiquant l’existence d’une solution qui satisfait le motif 
-CONSTRUCT # pour construire un graphe RDF solution, à partir des valuations des variables 
-DESCRIBE # retourne un graphe RDF décrivant les ressources trouvées. Le résultat dépend du service qui publie la donnée 
-INSERT # permet d'​ajouter des données à un graph 
- 
- 
-</​code>​ 
- 
-Ce vocabulaire réalisé à partir du document de Caron Anne-Cécile,​ «[[https://​www.google.com/​url?​sa=t&​rct=j&​q=&​esrc=s&​source=web&​cd=&​ved=2ahUKEwio3arnsd_uAhUNzYUKHYlmDI8QFjAAegQIARAC&​url=http%3A%2F%2Fwww.fil.univ-lille1.fr%2F~caronc%2FWS%2FsparqlPar4.pdf&​usg=AOvVaw31SW0hP9ETUOVuaAAHfl7j|sparql,​ Langage d’interrogation du web sémantique]]» dans le cadre du //Master image parcours ipi-nt//, 2016-2017. 
- 
-Cette «[[http://​www.iro.umontreal.ca/​~lapalme/​ift6281/​sparql-1_1-cheat-sheet.pdf|anti-sèche]]» permet aussi de retrouver l'​ensemble de la syntaxe du langage SPARQL. 
- 
-Un document qui permet d'​avoir toutes les clés en main pour comprendre le language SPARQL: Du Charme Bob, //Learning SPARQL: querying and updating with SPARQL 1.1//, Beijing, Chine, Pays multiples, 2011. 
-Il est aussi possible de consulté le [[http://​learningsparql.com/​|site de l'​auteur]],​ ainsi que son [[http://​www.bobdc.com/​|blog]] (ici l'​[[http://​www.snee.com/​bobdc.blog/​metadata/​rdf/​sparql/​|ancienne version]] avec les articles avant Février 2019). 
- 
- 
-Exemple de requête SPARQL: 
- 
-<​code>​ 
- 
-PREFIX foaf: <​http://​xmlns.com/​foaf/​0.1/>​ # exemple d'​espace de nom (foaf pour Friend of a friend; vocabulaire qui permet de décrire les personnes) 
-PREFIX dbo: <​http://​dbpedia.org/​ontology/>​ 
-PREFIX dbp: <​http://​dbpedia.org/​property/>​ 
-PREFIX owl: <​http://​www.w3.org/​2002/​07/​owl#>​ 
-PREFIX xsd: <​http://​www.w3.org/​2001/​XMLSchema#>​ 
- 
-SELECT DISTINCT ?s ?name (year(xsd:​dateTime(?​Birth_Date)) AS ?year) #ce sont les variables que l'on veut afficher 
-# year permet de convertir une date (Année/​Mois/​Jour) en une année ​ 
-WHERE 
-       {?s a dbo:Person . 
-        ?s foaf:name ?name . 
-        ?s dbp:​birthDate ?Birth_Date . 
-        ?s dbo:​abstract ?abstract . 
-        ​ 
-        FILTER regex(?​abstract,​ "​lawyer"​) # la clause regex permet d'​aller chercher dans les résumés ceux qui ont comme motif "​lawyer" ​ 
-        FILTER (xsd:date (?​Birth_Date) > "​1800-01-01"​^^xsd:​date) # permet de ne garder que ceux qui sont nés après 1800. 
-        } 
-ORDER BY (?year) #Cela ordonne les données par année de façon croissante 
-LIMIT 50 # c'est important quand on ne sait pas le nombre de résultat à afficher et qu'il peut être important 
-</​code>​ 
- 
-Ici, le but est d'​afficher les juristes qui sont nés après 1800 avec leur nom. 
-Il est possible de l’exécuter sur un [[https://​dbpedia.org/​sparql|point d'​accès SPARQL]]. 
- 
-Les points d'​accès permettent d'​accéder à des jeux de données. ​ 
- 
-Dans ce projet nous exécutons nos requêtes directement avec le language python. Pour cela, nous utilisons la bibliothèque [[https://​rdflib.dev/​sparqlwrapper/​|SPARQLWrapper]] (il faut l'​installer préalablement avec [[https://​anaconda.org/​conda-forge/​sparqlwrapper|conda]] ou [[https://​pypi.org/​project/​SPARQLWrapper/​|pip]] en ligne de commande sur un terminal). 
- 
-Bien qu'il n'est pas possible d'​associer différents jeux de données (provenant de sites différents) sur un même point SPARQL (pour des raisons de sécurité),​ il est possible de les fédérer via un système tiers ([[https://​www.w3.org/​TR/​sparql11-federated-query/​|documentation W3C]]) sur le sujet. Nous avons fait le choix d'​utiliser la version gratuite de GraphDB ([[https://​graphdb.ontotext.com/​documentation/​free/​|documentation]] et [[https://​www.ontotext.com/​products/​graphdb/​graphdb-free/​|lien de téléchargement]]),​ qui a une interface graphique permettant d'​avoir un serveur local permettant notamment de faire des requêtes SPARQL fédérées. Pour les réaliser, il faut indiquer dans la requête les points d'​accès que l'on veut utiliser en se servant de la clause SERVICE (voir le lien sur les requêtes fédérées pour l'​utiliser correctement). 
- 
-Il est là encore possible de faire les requêtes directement dans un carnet python. Pour cela, il faut utiliser l'API de GraphDB ([[https://​graphdb.ontotext.com/​documentation/​enterprise/​devhub/​workbench-rest-api/​index.html|documentation]],​ plus précisement dans le serveur local, cela ce situe dans REST API -lui-même dans //help//- puis il faut choisir SPARQL puis //expend operations//​- soit on choisie //GET// pour interroger les données ou //POST// pour les modifier. Il suffit ensuite de reporter le chemin -localhost:​7200/​webapi/​repositories/​{repositoryID} par exemple- dans le wrapper sur python). ​ 
- 
-Afin de vérifier si la syntaxe d'une requête est bien faite, il existe des outils: 
-  * [[http://​sparql.org/​query-validator.html|query-validator]] 
-  * [[http://​www.sparql.org/​update-validator.html|update-validator]] 
- 
-:!: ils vérifient uniquement si la requête est bien formulée mais cela ne permet pas de juger de la pertinence de la requête ou de sa réussite. 
- 
-=====DBpedia===== 
-\\  
-[[https://​wiki.dbpedia.org/​about|DBpedia]] est une projet participatif d'​extraction de données structurées à partir de différents projets Wikimedia (c'est avant tout pour extraire les données de Wikipedia), débuté en 2007 par l'​université libre de Berlin et l'​université de Leipzig. Ce projet s'​inscrit dans la démarche du //​[[https://​en.wikipedia.org/​wiki/​Linked_data|linked data]]// imaginé par Tim Berners-Lee. Le but étant de permettre que les données soient visibles aussi bien par des êtres humains que par des machines. Les données sont encodées au format [[https://​fr.wikipedia.org/​wiki/​Resource_Description_Framework|RDF]]. Cette base de données peut ensuite être interrogée au moyen d'un langage SQL tel que [[https://​fr.wikipedia.org/​wiki/​SPARQL|SPARQL]]. 
- 
-Au prémisse du projet, l'​objectif de DBpedia était de récupérer toutes les données qui sont contenues dans les //​infoboxes//​ (c'est une table de données résumant les informations essentiels dans une fiche Wikipedia) de Wikipedia. Ensuite, ils ont aussi récupérer diverses données comme le résumé ou bien tous les liens présents sur la pages. Ils ont pu aussi rajouter d'​autres liens vers des fiches d'​autres sites ou bases de données. Cette extraction (via l'​extracteur MARVIN) se faisait au début du projet tous les ans, mais aujourd'​hui ils arrivent à extraire l'​ensemble des données de Wikipedia chaque mois. De plus actuellement,​ à chaque étape de l'​extraction jusqu'​à la publication,​ il y a une validation sur la plateforme [[https://​databus.dbpedia.org/​|Databus]] afin de corriger la syntaxe RDF, etc.  
- 
-Voici le schéma complet du cycle de mis à jour de DBpedia: 
- 
 \\ \\
-{{projets_individuels:​schema_dbpedia_release_cycle.png|schéma du cycle de mis à jour de DBpedia }} 
-Source: Hofer M., Hellmann S., Dojchinovski M., Frey J., [[https://​link.springer.com/​chapter/​10.1007/​978-3-030-59833-4_1|The New DBpedia Release Cycle: Increasing Agility and Efficiency in Knowledge Extraction Workflows]],​ dans: Blomqvist E. et al. (eds) //Semantic Systems. In the Era of Knowledge Graphs. SEMANTICS 2020. Lecture Notes in Computer Science//, Springer, Cham, 27 octobre 2020. (DOI:​10.1007/​978-3-030-59833-4_1) 
  
-\\ 
  
-Il faut ajouter à cela que DBpedia a en plus une version par langue, appelées chapitres afin d'​internationaliser au mieux DBpedia. C'est le cas du [[http://​fr.dbpedia.org/​|français]].+=====Langage SPARQL=====
  
-De plusil y a une [[https://​wiki.dbpedia.org/​online-access/​DBpediaLive/​|version]] qui est mise à jour à chaque modification sur Wikipedia. Cette dernière ne se base que sur le Wikipedia anglais.+Dans notre projetnous avons recours au langage SPARQL dont vous pouvez retrouver ​une **[[documentation_sparql|documentation]]** ici. 
 +=====Bases de données utilisées=====
  
-Parallèlement à çails ont créé une [[https://​wiki.dbpedia.org/​services-resources/​ontology|ontologie]] afin de structurer hiérarchiquement l'​ensemble des données. Cette ontologie se fait suite à l'​extraction des données à partir de cette dernière, mais ils gardent accessible l'​extraction initiale des ressources. L'​ontologie s'​appuie aussi ce que qui a été fait par [[https://​schema.org/​|schema.org]] (vocabulaire pour lier les données du web, créés par Google, Microsoft, Yahoo et Yandex) pour améliorer ​leur ontologie. DBpedia s'est aussi très récemment associé à [[https://​www.diffbot.com/​|Diffbot]] qui permet d'​extraire des données structurées à partir de données non-structurées (TAL - Traitement automatique des langues) ([[https://​blog.dbpedia.org/​2021/​01/​14/​the-diffbot-knowledge-graph-and-extraction-tools/​|lien vers la source]]).+Dans notre projetnous utilisons différentes bases de données ​dont vous pouvez trouvez une documentation sur leur fonctionnement
  
-Il est possible de voir la structure de l'​ontologie,​ ainsi que les instances[[http://​78.46.100.7:​9000/​|ici]] avec des graphs dynamiques. ​+  * **[[documentation_dbpedia|DBpedia]]**
  
-Nous avons donc dans DBpedia des classes ([[https://​dbpedia.org/​ontology/​Economist|exemple]]) et des propriétés ([[https://​dbpedia.org/​ontology/​personFunction|exemple]]). Mais aussi, nous avons des ressources simples ([[https://​dbpedia.org/​page/​Economist|exemple]]) qui peuvent jouer le rôle d'​instance.+  * **[[documentation_bnf_data|BnF Data]]**
  
-Pour aller plus loin dans la compréhension de DBpedia, il est possible de lire de lire cette article sur la dernière mise à jour parue: Hofer M., Hellmann S., Dojchinovski M., Frey J., [[https://​link.springer.com/​chapter/​10.1007/​978-3-030-59833-4_1|The New DBpedia Release Cycle: Increasing Agility and Efficiency in Knowledge Extraction Workflows]], dans: Blomqvist E. et al. (eds) //Semantic Systems. In the Era of Knowledge Graphs. SEMANTICS 2020. Lecture Notes in Computer Science//, Springer, Cham, 27 octobre 2020. (DOI:​10.1007/​978-3-030-59833-4_1)+  * **[[documentation_wikidata|Wikidata]]**
  
- +  ​* **[[projets_individuels:​documentation_viaf|VIAF]]**
-Vous retrouver [[https://​dbpedia.org/​sparql?​nsdecl|ici]] la liste des [[https://​fr.wikipedia.org/​wiki/​Espace_de_noms|espaces de noms]] (wikipedia fr) utilisés par DBpedia. +
- +
-L'​accès direct au [[https://​dbpedia.org/​sparql|point d'​accès SPARQL]] de DBpedia, ainsi que de la version //​[[https://​live.dbpedia.org/​sparql|live]]//​ et la [[http://​fr.dbpedia.org/​sparql|version française]]. +
- +
-=====BnF Data===== +
-\\ +
-[[https://​data.bnf.fr/​|BnF Data]] est une base de données permettant de rendre accessible les données de la Bibliothèque nationale de France, issues de [[https://​gallica.bnf.fr/​accueil/​fr/​content/​accueil-fr?​mode=desktop|Gallica]] (portail des numérisations de la BnF), du [[https://​catalogue.bnf.fr/​index.do|catalogue général]] de la bibliothèque,​ ainsi que d'​[[https://​archivesetmanuscrits.bnf.fr/​|Archives et manuscrits]] (catalogue dédié aux archives et au manuscrits des différents fonds de la BnF). Le projet a pour but de fournir des données structurés interprétables par des machines mais aussi lisibles par des humains, afin là aussi d'​être dans les principes du //linked open data//. Les données sont encodées dans le format standard RDF. Cela implique qu'à chaque ressource un URI lui est associé, c'est le [[https://​fr.wikipedia.org/​wiki/​Archival_Resource_Key|mécanisme ARK]].  +
- +
-De plus, une partie des données est alignée sur d'​autres référentiels et jeux de données comme DBpedia (à noter que c'est le DBpedia français et non le DBpedia global) et VIAF.  +
- +
-====Modèle utilisé par BnF Data==== +
- +
-BnF Data utilise aussi une modèle pour son fonctionnement. Ce modèle s'​intitule FRBR (//​Functional Requirements for Bibliographic Records//). Il a été développé par l'IFLA en 1998 afin de répondre aux besoins de bibliothèques en matière de modélisation mais il a évolué ensuite en deux modèles distincts le FRBRer et le [[http://​www.cidoc-crm.org/​frbroo/​|FRBRoo]]. le FRBRer est le FRBR initial mais dont le nom a été modifié par commodité afin de la distinguer du FRBRoo. Il intègre aussi par le suite le FRANAR (//​Functional Requirements and Numbering of Authority Records//) en 1999 et le FRSAD  (//​Functional Requirements for Subject Authority Data model//) en 2005 permettant d'​intégrer des autorités. Le FRBRoo, quand a lui est issu d'un groupe de travail entre l'IFLA et le [[http://​cidoc-crm.org/​|Cidoc CRM]]. +
- +
-Les distinctions entre les deux modèles sont les suivantes:  +
- +
-  ​Tout d'​abord,​ le FRBRer est qualifié d'​Entité Relation tandis que le FRBRoo est qualifié d'​Orienté Objet afin de le placer dans le cadre du Cidoc CRM.  +
- +
-  ​Ensuite dans le FRBRoo les entités deviennent des classes, les attributs et les attributs deviennent des propriétés. De plus, chaque classe ou propriété a un URI. +
- +
-  ​Enfin on ne parle d'​ontologie que pour le FRBRoo. +
- +
-Ce [[https://​bibliotheques.wordpress.com/​2013/​06/​13/​frber-et-frbroo/​|billet de blog]] d'​Etienne Cavalié résume très bien la distinction qui est faite entre les deux modèles (l'​échange de commentaires entre Etienne Cavalié et Patrick Le Boeuf en fin de blog est aussi intéressant). +
- +
-Vous pouvez avoir [[http://​www.cidoc-crm.org/​frbroo/​fm_releases|ici]] les différentes version du FRBRoo. +
- +
-Il faut ajouter à cela un autre modèle, le IFLA LRM (Library Reference Model), initié en 2017 qui a pour but de corriger certaines incohérences du FRBRer en créant un modèle commun au FRBRer, FRANAR et FRSAD. La présentation du modèle est disponible sur cette [[https://​www.transition-bibliographique.fr/​enjeux/​definition-ifla-lrm/​|page]]. L’intégralité du modèle est disponible [[https://​www.ifla.org/​publications/​node/​11412|ici]]. +
- +
-Le FRBR (dans ses deux modèles) a pour but de modéliser les données bibliographiques. Pour cela, il y a quatre niveaux pour délimiter les œuvres: +
- +
-  * **L'​œuvre** : C'est le niveau de la création, ex: //Le seigneur des anneaux// de Tolkien. +
- +
-  * **L'​expression**:​ Cela rassemble les différentes versions du même œuvre, un abrégé, une traduction. ex: la traduction française du seigneur des anneaux. +
- +
-  * **La manifestation**:​ C'est la matérialisation d'une expression, comme une édition. ex: le //Le Hobbit// « Édition Deluxe illustrée par J.R.R. Tolkien, Christian Bourgois Édition». +
- +
-  * **L'​item**:​ C'est l'​exemplaire. ex: //Le seigneur des anneaux// de Tolkien dans la bibliothèque de ma grand-mère ou bien le manuscrit Français 1158 conservé à la BnF au Département des Manuscrits. +
- +
-Ces différents niveaux sont mis en relation à des personnes ou des collectivités. Auxquels, on peut ajouter des lieux, des événements,​ des concepts et des objets. +
- +
-Schéma du modèle FRBR utilisé par la BnF: +
- +
-{{projets_individuels:​projets_individuels:​frbr.png|Schéma FRBR }} +
- +
-Source : Bénézet Joly, http://​slideplayer.fr/​slide/​3213771/​. +
- +
-====Liens utiles==== +
- +
-Vous pourrez retrouver sur cette page l'​ensemble du [[https://​data.bnf.fr/​opendata|fonctionnement]] de BnF Data, c'est à dire le modèle employé, les alignements réalisés, ainsi que les espaces de noms utilisés. +
- +
-La mission de BnF Data est résumée sur cette [[https://​www.bnf.fr/​fr/​databnffr|page]]. +
- +
-L'​accès au [[https://​data.bnf.fr/​sparql/​|terminal SPARQL]] de BnF Data. +
- +
-=====VIAF===== +
- +
-[[https://​viaf.org/​|VIAF]] ​(//Virtual International Authority File//) est un fichier des autorités internationales qui a pour but d'​identifier les personnes ou les organisations qui se trouve dans d'​autres fiches d'​autorités. Cela permet aussi de les mettre en relation par un identifiant URI VIAF. Il est au cœur de la démarche du [[https://​fr.wikipedia.org/​wiki/​Web_s%C3%A9mantique|web sémantique]] et du //​[[https://​en.wikipedia.org/​wiki/​Linked_data|linked open data]]//. Pour ce faire, les fiches réalisés en RDF. +
- +
-Le VIAF a été initié en avril 1998 par la //Library of Congres//, la //Deutsche Nationalbibliothek//​ et le OCLC. La Bibliothèque nationale de France a rejoins le contortium en 2007. Ces dernières sont les principales décisionnaire du projet. Le projet est aujourd'​hui porté par de nombreuses institutions (61  en 2017) mais il est mis en œuvre et hébergé par le [[https://​www.oclc.org|OCLC]] (Online Computer Library Center). +
- +
-Cette [[https://​www.oclc.org/​research/​activities/​viaf.html|page]] donne accès à de la documentation sur VIAF. +
- +
-La page [[https://​fr.wikipedia.org/​wiki/​Fichier_d%27autorit%C3%A9_international_virtuel|wikipedia (fr)]] du VIAF notamment pour connaître les bibliothèques partenaires. +
- +
-[[https://​www.oclc.org/​content/​dam/​oclc/​viaf/​VIAF%20Guidelines.pdf|VIAF Guidelines]] permet de connaître les points importants dans les missions et le fonctionnement de VIAF (il est aussi intéressant car ils donnent aussi les problèmes qui peuvent être rencontré). +
- +
- +
- +
-VIAF utilise plusieurs espaces de noms pour fonctionner:​ +
- +
-  ​VIAF +
-  ​[[https://​www.w3.org/​OWL/​|OWL]] +
-  * [[https://​www.w3.org/​TR/​2008/​WD-skos-reference-20080829/​skos.html|SKOS]] +
-  * [[http://​xmlns.com/​foaf/​spec/​|FOAF]] +
-  * FRBR +
-  * [[https://​dublincore.org/​specifications/​dublin-core/​dcmi-terms/​|DC terms]] +
-  * [[https://​schema.org/​docs/​schemas.html|Schema.org]] +
-  * [[https://​lov.linkeddata.es/​dataset/​lov/​vocabs/​umbel|UMBEL]] (ce dernier a été retiré en 2019 et son domaine vendu) +
-Le VIAF est utile dans notre projet, Les URI qu'ils utilisent sont employées à la fois par DBpedia et par BnF data. Donc il est utile pour faire le lien entre les deux. +
- +
-Cette [[https://​platform.worldcat.org/​api-explorer/​apis/​VIAF|page]] donne accès à l'API de VIAF. +
- +
-En 2014, différents [[https://​www.oclc.org/​developer/​news/​2014/​viaf-rdf-vocabulary-changes-and-additions.en.html|changements]] dans le vocabulaire et des ajouts. Ils ont notamment changer certains espaces de noms pour prendre ceux de [[https://​schema.org/​|schema.org]]. +
- +
-En 2016, des [[https://​www.oclc.org/​developer/​news/​2016/​upcoming-changes-to-viaf.en.html|changements]] ont été opérés dans l'API de VIAF. +
- +
-Ex: [[http://​www.viaf.org/​viaf/​29551966/​viaf.json|Notice au format json]] de John Maynard Keynes +
- +
-Cette [[https://​www.w3.org/​2005/​Incubator/​lld/​wiki/​Use_Case_Virtual_International_Authority_File_(VIAF)|page]] explique comment le VIAF fonctionne (:!: Attention: Elle n'a pas été mise à jour depuis 2010). +
- +
-Ils semblent qu'ils aient réalisé une ontologie mais qu'​elle est, à ce jour plus exploitée, ou bien qu'​elle ne soit publique (mais depuis 2011, il y a aucune documentation sur elle). Vous trouverez [[http://​viaf.org/​viaf.jpg|l'​ontologie]] comme elle a été imaginée.+
  
  
 =====Github===== =====Github=====
  
-Les différents carnets créés durant ce projet sont disponibles sur ce [[https://​github.com/​Semantic-Data-for-Humanities/​Economists_Lawyers|dépôt Github]]. Ils permettent de prendre connaissances de la façon dont nous avons procéder pour extraire des informations sur les économistes et les juristes et comment nous les avons traités ensuite. +Vous retrouver ici la **[[besson_sylvain:documentation_git_github|documentation]]** consacrée ​à Git et Github. ​
- +
-[[https://​github.com/​|Github]] nous permet de pouvoir faire des mis à jour sans impacter le travail des autres et pour voir une trace de toutes nos modifications (et d'​éventuellement revenir à une version antérieure). Il fonctionne avec le langage [[https://​fr.wikipedia.org/​wiki/​Git|Git]]. +
- +
-Nous avons eu aussi recours à [[https://​desktop.github.com/​|Github desktop]] (le site n'​indique que les versions Windows ​et Mac mais il est aussi disponible sur [[https://​dev.to/​rahedmir/​is-github-desktop-available-for-gnu-linux-4a69|Linux]]) afin de transmettre les carnets de nos machines vers Github. +
- +
-Nous utilisons aussi une [[https://​github.com/​jupyterlab/​jupyterlab-git|extension]] de Jupyterlab pour avoir Git, de même que nous utilisons une [[https://​github.com/​jupyterlab/​jupyterlab-github|extension]] pour avoir Github. +
- +
-Le recours à une [[https://​help.gnome.org/​users/​seahorse/​stable/​about-ssh.html.fr|clef SSH]] est aussi utile pour se connecter de façon sécuriser depuis une machine local vers Github. +
- +
-Cette clef est en deux parties: +
-  * Une clef publique disponible par tous +
-  * Une clef privée est secrète+
  
-Il faut pour cela créer une [[https://​docs.github.com/​en/​github/​authenticating-to-github/​generating-a-new-ssh-key-and-adding-it-to-the-ssh-agent|clef privée sur une machine locale]] puis ensuite reporter la clef publique sur [[https://​docs.github.com/​en/​github/​authenticating-to-github/​adding-a-new-ssh-key-to-your-github-account|Github]]. Cela fonctionne à la fois sur Windows, Mac et Linux. 
besson_sylvain/economiste_juriste_documentation.1616694408.txt.gz · Dernière modification: 2021/03/25 18:46 (modification externe)