Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente Prochaine révision Les deux révisions suivantes | ||
besson_sylvain:economist_jurist [2021/03/22 16:59] Sylvain Besson |
besson_sylvain:economist_jurist [2021/03/23 11:56] Sylvain Besson |
||
---|---|---|---|
Ligne 45: | Ligne 45: | ||
OFFSET # signifie qu’on ”passe” les n premières solutions. | OFFSET # signifie qu’on ”passe” les n premières solutions. | ||
OPTIONAL # on peut mettre des parties optionnelles, même lorsque qu'il ne pas de valeurs dans l'objet | OPTIONAL # on peut mettre des parties optionnelles, même lorsque qu'il ne pas de valeurs dans l'objet | ||
+ | SERVICE # permet d'agréger des points d'accès SPARQL | ||
-------------------------------------------------------- | -------------------------------------------------------- | ||
Ligne 50: | Ligne 51: | ||
ASK # retourne un booléen indiquant l’existence d’une solution qui satisfait le motif | ASK # retourne un booléen indiquant l’existence d’une solution qui satisfait le motif | ||
CONSTRUCT # pour construire un graphe RDF solution, à partir des valuations des variables | CONSTRUCT # pour construire un graphe RDF solution, à partir des valuations des variables | ||
- | DESCRIBE # retourne un graphe RDF décrivant les ressources trouvées. Le résultat dépend du service qui publie la donnée. | + | DESCRIBE # retourne un graphe RDF décrivant les ressources trouvées. Le résultat dépend du service qui publie la donnée |
+ | INSERT # permet d'ajouter des données à un graph | ||
Ligne 105: | Ligne 107: | ||
Au prémisse du projet, l'objectif de DBpedia était de récupérer toutes les données qui sont contenues dans les //infoboxes// (c'est une table de données résumant les informations essentiels dans une fiche Wikipedia) de Wikipedia. Ensuite, ils ont aussi récupérer diverses données comme le résumé ou bien tous les liens présents sur la pages. Ils ont pu aussi rajouter d'autres liens vers des fiches d'autres sites ou bases de données. Cette extraction (via l'extracteur MARVIN) se faisait au début du projet tous les ans, mais aujourd'hui ils arrivent à extraire l'ensemble des données de Wikipedia chaque mois. De plus actuellement, à chaque étape de l'extraction jusqu'à la publication, il y a une validation sur la plateforme [[https://databus.dbpedia.org/|Databus]] afin de corriger la syntaxe RDF, etc. | Au prémisse du projet, l'objectif de DBpedia était de récupérer toutes les données qui sont contenues dans les //infoboxes// (c'est une table de données résumant les informations essentiels dans une fiche Wikipedia) de Wikipedia. Ensuite, ils ont aussi récupérer diverses données comme le résumé ou bien tous les liens présents sur la pages. Ils ont pu aussi rajouter d'autres liens vers des fiches d'autres sites ou bases de données. Cette extraction (via l'extracteur MARVIN) se faisait au début du projet tous les ans, mais aujourd'hui ils arrivent à extraire l'ensemble des données de Wikipedia chaque mois. De plus actuellement, à chaque étape de l'extraction jusqu'à la publication, il y a une validation sur la plateforme [[https://databus.dbpedia.org/|Databus]] afin de corriger la syntaxe RDF, etc. | ||
+ | |||
+ | Voici le schéma complet du cycle de mis à jour de DBpedia: | ||
+ | |||
+ | \\ | ||
+ | {{projets_individuels:schema_dbpedia_release_cycle.png|schéma du cycle de mis à jour de DBpedia }} | ||
+ | |||
+ | \\ | ||
Il faut ajouter à cela que DBpedia a en plus une version par langue, appelées chapitres afin d'internationaliser au mieux DBpedia. C'est le cas du [[http://fr.dbpedia.org/|français]]. | Il faut ajouter à cela que DBpedia a en plus une version par langue, appelées chapitres afin d'internationaliser au mieux DBpedia. C'est le cas du [[http://fr.dbpedia.org/|français]]. |