WikiArchives/Idées Wikibase pour archivistes
Après plusieurs présentations de projets GLAM en français avec essentiellement l'encyclopédie Wikipédia et la base de données multimédia Wikimedia Commons, le webinaire de ce 14 mai est consacré à la base de données libre Wikidata, à une introduction au langage de requêtes SPARQL et à des exemples multilingues et internationaux de Wikibase, et ensemble d'extensions qui sert à publier et intégrer les données structurées d'une base de données.
Avec Wikidata et Wikibase, c'est une façon ludique et très gratifiante de s'initier aux linked data et au langage RDF (voir les Records in Contexts du Conseil international des archives), des données très rapidement réutilisables par des humains et des machines, un monde de connaissance interconnecté, bref, de quoi avoir plein d'idées neuves pour ses archives !
Intervenant·e·s
editLéa Lacroix : responsable de la communication avec la communauté Wikidata au sein de l'équipe de développement (Wikimedia Deutschland)
Nicolas Vigneron (Twitter: @belett) : contributeur multilingue, multiprojet et multivitaminé, formateur aux projets Wikimédia.
Présentation animée par Gilliane Kern (Twitter: @GillianeKern), archiviste et wikimédienne suisse passionnée, qui s'intéresse à l'utilisation de Wikidata pour optimiser le travail des archivistes (et autres professionnel·le·s GLAM) et faciliter le partage de leurs connaissances dans les outils Wikimedia, afin de rendre ce savoir disponible au plus grand monde.
Contenu de la présentation
editDirect jeudi 14.05.2020 à 18h sur Twitch
Présentation rapide de la base de données participative Wikidata (identifiants uniques Q et P, données structurées, ext IDs, interface flexible, multilingue, edits par bot/scripts)
Exemples de réutilisation de Wikidata & pourquoi c'est utile d'avoir des données structurées :
- Crotos
- Arbre généalogique (exemple généalogie Victor Hugo)
- Witches map
- Exemple réalisé avec Wikidata : archives de l'histoire coloniale de l'Allemagne / https://blog.factgrid.de/archives/1215
Exemples de requête SPARQL, rapide démo d'exemples
Qu'est-ce que Wikibase + exemples de réutilisations :
- Extension de Mediawiki, encore en développement, expérimentations
- Exemples de grandes autorités de catalogage : BNF, DNB
- FactGrid : Base de données spécialisée pour les chercheurs en histoire - a commencé à propos des Illuminati puis s'est élargi - le but est de collecter tout ce qui a trait aux documents historiques - champ de recherche des sciences humaines numériques (digital humanities), voir https://database.factgrid.de/wiki/FactGrid:Sample_queries
- Wikidocumentaries : un wiki à propos des historiens & amateurs remixent des données existantes avec leurs propres contenus et proposent une interface innovante. Exemple : https://wikidocumentaries-demo.wmflabs.org/Q9047?language=en
- Enslaved - Michigan State University, histoire de la traite d'esclaves translatlantique, tente de retracer l'identité et le parcours des esclaves (parce que les données sont sensibles, la base de données n'est pas accessible publiquement, seulement par les chercheurs qui en font la demande)
- Leibniz’s Correspondents and Acquaintances / https://data.leibnitiana.eu/index.php/Main_Page / collecter et connecter les personnes ayant correspondu avec le philosophe et mathématicien Gottfried Wilhelm Leibniz
Ces Wikibases sont enregistrées dans le Wikibase registry.
Différence entre Wikidata et Wikibase, pourquoi utiliser l'un ou l'autre ?
- Critères de notabilité : plus limité sur Wikidata qui est généraliste, Wikibase vous permet d'aller aussi loin dans le détail
- Wikibase vous permet de créer votre propre ontologie = structure de données
- Wikidata : communauté, données & ontologie existante
- Possibilité : avoir sa propre Wikibase mais connecter à Wikidata (propriété "Wikidata ID", mapping du vocabulaire = connecter les propriétés) - tease Federation
Questions lors du live
editLors de la présentation en direct, les questions ont été rassemblées sur : https://notes.wikimedia.fr/p/WikiArchives_Wikibase
Elles ont été recopiées ici une fois la présentation terminée.
Q : On peut aussi trouver des archivistes de fictions et afficher des images de tou·te·s les archivistes avec SPARQL ? R : oui, aussi ! Liste des archivistes de fiction : https://w.wiki/Qpy
Q : Un bon tutoriel pour bien maîtriser les requêtes SPARQL ? Quelque chose de basique mais complet ?
R : Je vous recommande https://commons.wikimedia.org/wiki/File:Querying_Wikidata_with_SPARQL_for_Absolute_Beginners.webm Nicolas : oui, je recommande aussi ! c'est en anglais mais très compréhensible Merci !
Q : Dans sa propre wikibase il faut créer les propriétés ou elles sont comprises dans le logiciel à partir des propriétés de wikidata ?
R : Par défaut oui, il faut les créer ; mais il y a moyen de les récupérer de Wikidata voire de les synchroniser ;) Merci
Q : L'outil est libre mais existe-t-il des intégrateurs ?
R : -> voir doc (lien précis à ajouter https://wikiba.se/ )
Q : Est ce qu'il y a des services d'archives qui envisagent de, systématiquement, créer des entités sur Wikidata correspondant à leur fonds d'archives ?
R : Qui envisagent : moi oui en tout cas.
R : -> systématiquement ? quelle granularité ? c'est à dire ? Oui, l'objectif serait d'importer la liste des fonds par exemple pour le service. Excellent, j'étais juste curieux (si on allait jusqu'à la pièce/document par exemple ou plus largement juste sur les personnes sur lesquels portent les fonds). Les fonds d'archives privées (donc sur les personnes) dans un premier temps, puis les fonds thématiques
RE : Avec quel type d'infos pour chaque fonds ? Et comment raccrocher ça à la propriété "archivé par" principalement utilisée pour le moment ?
RE-RE : la page https://www.wikidata.org/wiki/Wikidata:WikiProject_Archival_Description est inactive en ce moment, ce serait bien de faire du brainstorming là sur ce sujet. D'ailleurs sur la partie Data structure il y a déjà des éléments de concordance entre nos standards (ISAD-G, ISAARD-CPF) et les propriétés wikidata Je ne peux répondre puisque "j'envisage" ..... pas encore en action. Le mystérieux archiviste masqué :D lol
R : Dans l'Hérault, nous avons intégré dans wikidata les références des fonds déposés d'archives communales : https://www.wikidata.org/wiki/Q656270 https://www.wikidata.org/wiki/Q474756#P485 exemple du Finistère, propriété "archivé par"
Q : Pour les discussions sur les mapping la communauté pro peut être appuyé par l'équipe du projet Wikidata pour faire les bons choix ?
R : Non, c'est à la communauté de choisir ses propriétés. L'équipe de Wikmedia Deutschland peut tout au plus rediriger vers les bonnes personnes dans la communauté, mais nous sommes là ce soir ;)
Q : Pour la partie technique,quel profil est nécessaire pour installer et paramètrer son instance wikibase ?
R : -> voir doc (lien précis à ajouter https://wikiba.se/ )
Q : Est-ce qu'il y a des rencontres, permanence ou autres de contribution pour Wikidata comme pour Wikipédia ? Pour pouvoir rencontrer des contributeurs plus expérimentés
R : https://www.wikidata.org/wiki/Wikidata:Events Lettre d'information (en anglais): https://www.wikidata.org/wiki/Wikidata:Status_updates A Paris, dans les locaux de la rue de Cléry, les vendredis soirs. S'inscrire à la newsletter pour recevoir les infos : wikidata@lists.wikimedia.fr
Q : Est ce que des services d'archives utilisent déjà leur propre wikibase ?
R : -> si il y en a, on ne les connait pas...
Q : A-t-on des exemples de service qui renseigne leur référence "producteur" dans wikidata ? Sur le modèle VIAF ou Data.bnf
R : Sans doute, on va chercher ; peut-être aux Archives nationales de France.
Q : Ne serait il pas opportun de créer une mailing list francophone GLAM ?
R : OUI !!! Il existe une mailing list Wikidata francophone généraliste https://lists.wikimedia.fr/info/wikidata et une liste Wikimedia+GLAM francophone https://lists.wikimedia.fr/info/glam => rejoignez les, c'est le meilleur moyen de rentrer en contact avec des membres de la communauté !
Liaison EAC-PCF, l'équipe du hackathon, plus d'infos sur : http://www.archives-nationales.culture.gouv.fr/resultats-du-hackathon-des-archives-nationales --> Il était possible d'exporter des entités wikidata et d'en faire des XML-EAC. C'était directement dans Wikidata.
Autres ressources
edit- La chaîne Twitch de nicolas : @belett, une initiation au SPARQL en français tous les mardis à 20:00 CEST! -> https://www.twitch.tv/belett