Les petites cases

Geekeries

Les technos du Web sémantique ont-elles tenu leurs promesses ?

J’ai commencé à m’intéresser aux technologies du Web sémantique en 2005 et j’ai fait ma première communication à ce sujet en 2006 lors de la conférence Digital Humanities à Paris. J’ai eu l’occasion de les tester grandeur nature dès 2007 pour un projet mené par le CCH du King’s college, mais c’est au cours du projet SPAR de la Bibliothèque nationale de France à partir de 2008 que j’ai véritablement commencé à toucher du doigt les formidables promesses de ces technologies ainsi que leurs limites, déjà… Entre 2008 et 2014, j’ai eu l’occasion de les déployer dans différents contextes pour répondre à des cas d’usage divers : exposition des données, récupération de données encodées au sein des pages Web, décloisonnement de silos internes et mise en cohérence de données, enrichissement de données et mashup… J’ai œuvré à leur diffusion, du moins j’ai essayé, à travers ce blog ou ailleurs, et effectué quantité de formations sur le sujet en direction de publics très variés. Pour résumer, j’y voyais alors le moyen de déployer un système  d’information orienté données et plus uniquement processus et d’une manière générale de renverser ce primat dans la manière d’aborder le développement d’une application informatique.

Comme je l’ai déjà expliqué, à l’issue de cette période, j’étais très dubitatif sur l’intérêt d’utiliser ces technologies. Dans la mesure où j’étais conscient de leurs apports mais aussi de leurs limites, elles étaient toujours présentes mais sans être jamais au cœur de ma réflexion à l’Ina, du moins directement. L’expérience accumulée et les bénéfices de ces technologies nourrissaient néanmoins des pans entiers de la stratégie que nous étions en train de déployer sans même que j’en sois totalement conscient.

C’est peut-être la raison pour laquelle j’ai continué de les enseigner aussi bien dans le Master « Technologies numériques appliquées à l’histoire » de l’Ecole nationale des chartes que lors de formations pour Ina Expert, parfois, il faut bien l’avouer, en traînant un peu les pieds. J’ai fait évoluer ma présentation en replaçant ces technologies et leur intérêt dans le contexte plus large du Big Data, de l’Open Data et maintenant de l’intelligence artificielle. Finalement, je ne me suis jamais résolu à les abandonner totalement, partant du principe qu’une technologie ne disparaît pas, mais trouve sa juste place par rapport aux autres. De plus, je reste convaincu qu’elles restent la meilleure technologie pour assurer l'interopérabilité des données, mais jusqu’à quel point en a-t-on vraiment؜ besoin ?

Plusieurs fois, à la lecture d’un article ou d’un tweet qui vantaient les mérites de ces technologies et du Linked Open Data ou web de données, j’ai voulu écrire pourquoi il fallait rester prudent (voire plus…), encore récemment autour de la question de leurs usages au sein des musées. Je l’ai même dit en conférence, parfois, de manière abrupte, à la hauteur des désillusions que j’avais vécues. Aujourd’hui, sans avoir réussi à s’imposer largement, ces technologies ont indubitablement fait avancer notre réflexion sur la question de l’interopérabilité et force est de constater que certaines initiatives ont réussi à sortir du lot et à valider certains usages. Après avoir laissé passer le « ravin de la désillusion » et au moment où ces technologies semblent atteindre le plateau de la productivité du « Hype cycle », c’est le bon moment de dresser un bilan.


Hype Cycle du Gartner, Jérémy Kemp, CC-BY-SA

Alors, peut-être pour la dernière fois sur ce blog, je vous propose une plongée dans les entrailles des technologies du Web sémantique pour étudier quels en sont finalement les apports et les limites et l’écart entre les promesses et la réalité. Pour rendre les choses un peu plus digeste à lire et à appréhender, j’ai séparé ce bilan en quatre billets :

Lire la suite...

Management de l'information RDF Web sémantique Système d'information Sparql Moteur de recherche RDFa SHS Wikipedia Geekeries Linked Data

Réaliser un mashup de données avec Dataiku DSS et Palladio

Dans mon précédent billet sur la préparation des données, j'avais fait part de mon enthousiasme pour la solution DSS de Dataiku dans le cadre de la préparation des données. J'ai donc poursuivi ma pratique du logiciel dans un contexte que j'apprécie particulièrement : la mise au point d'un mashup de données. Cet exercice permet autour d'un exemple concret de faire le tour du traitement des données : recherche, récupération, interrogation, structuration, nettoyage, mise en relation, visualisation. Il est donc parfaitement adapté pour évaluer un logiciel en la matière. Et le résultat fut à la hauteur :

Afin de partager cette découverte, j'ai mis au point un tutoriel qui vise à :

Lire la suite...

Management de l'information Sparql Digital humanities Outils Geekeries

Du problème de la qualité des données et de la manière de le résoudre...

Comme le rappelait très justement Dominique Cardon dans son interview du vendredi 6 janvier sur France Inter :

« [...]il faut faire attention, les algorithmes, c’est idiot, c’est une procédure statistique un peu bête qui utilise des données pour faire un grand calcul massif[...] »

Comme l'a expliqué Dominique Cardon malgré les coupures incessantes d'Ali Baddou (et comme je l'avais fait beaucoup plus modestement), l'algorithme n'est pas une entité en soi : ce n'est qu'un code source mis au point par un humain qui détermine la « procédure statistique » exécuté sur et grâce à des données. Ces dernières sont donc d'une importance fondamentale.

Il y a presque 10 ans, Christian Fauré faisait état sur son blog d’une certaine déception des organisations devant les résultats des outils de reporting et de Business Intelligence au regard de l’investissement effectué pour les déployer. Il revenait alors sur un point essentiel : ce genre d’outils ne donne leur plein potentiel que si les données sont propres, le fameux adage en traitement des données : « shit in, shit out ».

Dix ans plus tard, on sent souvent poindre la même déception concernant le Big data car rien a changé pour le traitement des données : les algorithmes ont plus que jamais besoin de données « propres » pour fonctionner. Par exemple, la pertinence des systèmes de catégorisation automatique dépend presque intégralement de la qualité du corpus utilisé pour effectuer l’entraînement du système.

Ainsi, on voit apparaître régulièrement des statistiques montrant que les « data scientists » passent presque 80% de leur temps à sélectionner, nettoyer et préparer les données (cf. ces articles du New York Times de 2014 et de Forbes en 2016). Vous y réfléchissez à deux fois avant de faire cet investissement quand vous savez le prix de ce genre de compétence. Or, ce travail n’est pas plus « sexy » aujourd’hui qu’il y a dix ans pour reprendre les termes employés par Christian. En revanche, étant donné la valeur (réelle ou supposée…) créée par ces algorithmes, des solutions commencement à émerger et la préparation des données (on parle aussi de data wrangling en anglais) est peu à peu devenue un enjeu jusqu’à devenir une des tendances annoncée du « Big Data » pour 2017.

Lire la suite...

Management de l'information Geekeries

De quoi le Big Data est-il le nom ?

Comme l'a justement rappelé Manue sur le Figoblog, alors qu'il a atteint le ravin de la désillusion, le Big Data a désormais dépassé le stade du "buzzword". On peut aujourd'hui en voir les applications concrètes même si celles-ci restent souvent limitées, comme l'explique cette étude de Cap Gemini décryptée par ZDnet qui rappelle que seuls 13% des projets dits de Big Data sont entrés en production ou cet article très complet, "Le Big Data : un enjeu pour les industries créatives", paru sur le site INA Global qui, au-delà des exemples de réalisations, démontre les problèmes nombreux qu'ils restent à résoudre. Les espérances qui ont été placées dans cette évolution technologique doivent-elles être revues à la baisse ? Ou au contraire, est-ce le bon moment pour approfondir et développer les cas d'usage qui ont commencé à émerger ?

De fait, ces premières applications sont aujourd'hui suffisamment intéressantes pour justifier qu'on s'y intéresse de près et qu'on étudie les causes des échecs. Or, il apparaît qu'un des facteurs récurrents d'échec est la donnée elle-même (données de qualité insuffisante, mal agrégées...). Aurait-on oublié de s'intéresser à la donnée elle-même dans le Big Data ? Sans aller jusque là, il semble bien que la donnée, l'attention (pour ne pas dire curation...) qu'on y prête, sa compréhension n'aient pas totalement été au centre des préoccupations jusqu'à maintenant. Or, c'est précisément le rôle du professionnel de l'information. Mobilisant leurs compétences sur les données, ils doivent s'emparer du sujet pour faciliter son appréhension par les "directions métiers". Cela passe par une appropriation de la technologie : les professionnels de l'information ont aujourd'hui besoin de savoir ce qui se cache concrètement derrière ce terme de "Big Data". C'est que je me propose d'initier à travers ce billet.

Lire la suite...

Management de l'information Système d'information Geekeries

Patrimoine et Web de données

Peut-être n'avez-vous pas vu passer l'information sur les différents réseaux sociaux ?

La semaine prochaine, le 8 septembre à 17h pour être précis, aura lieu à la Salle Piazza du Centre Pompidou une rencontre gratuite avec pour thème « Patrimoine et Web de données ». Si vous êtes intéressés de près ou de loin par la valorisation du patrimoine et de ses données, je vous invite à vous inscrire et à nous rejoindre, puisque trois projets seront présentés par les conservateurs eux-mêmes pour montrer la diversité en la matière :

  • Romain Wenz de la BnF présentera le projet Data.bnf.fr dont une 1ère version est sortie au début de l'été
  • Claire Sibille la mise en ligne selon les respects des règles du Web de données du Thésaurus pour l'indexation des archives locales publié par les Archives de France disponible depuis le printemps
  • Emmanuelle Bermès (alias Manue) prendra d'abord sa casquette de Chair de l'incubator Group du W3C Library Linked Data pour nous en présenter les résultats puis changera pour prendre celle de chef de projet du Centre Pompidou Virtuel pour nous parler de ce projet

Lire la suite...

Management de l'information Web sémantique Geekeries Linked Data — 

Les technologies du Web sémantique

J'ai écrit le texte de ce billet en guise d'introduction aux technologies du Web sémantique pour le projet de publication selon les règles du Web de données du thésaurus pour l'indexation des archives locales publié par les Archives de France que j'ai mené pour Atos Origin avec le Service Interministériel des Archives de France au printemps 2010 (et sur lequel il faudra que je trouve le temps de revenir sur ce blog pour vous en dire plus...). Claire Sibille, conservateur en chef au SIAF, m'a très gentiment donné l'autorisation de republier ces textes sur mon blog. Je l'en remercie.
Il s'agit d'une introduction générale en trois parties dont ce billet est la seconde :

Le Web sémantique désigne, en premier lieu, une activité du W3C, l'organisme de normalisation du Web, visant au développement de technologies de mise à disposition des données structurées en vue de leur traitement par les machines sur le Web. Par extension, l'expression désigne à présent l'idée et l'ensemble des dispositifs et briques technologiques qui le composent. Comme nous l'avons montré dans l'historique, le mot « sémantique » ne renvoie pas à la définition communément admise en linguistique, mais fait référence à la définition donnée par le domaine de la logique de description dont le but est de faire émerger du sens à travers la structuration des données et l'expression de la logique qui les relie.

Les différentes technologies du Web sémantique forment des couches dont la compréhension est essentielle pour appréhender au mieux ses possibilités. Mais, au préalable, il est nécessaire de dresser un tableau de l'architecture du Web sur laquelle reposent l'ensemble des fondations du Web sémantique.

Lire la suite...

RDF Sparql OWL RDFa Geekeries — 

Quel événement !? Ou comment contextualiser le triplet

L'absence de contextualisation est le principal reproche adressé à RDF par ses adversaires et il est vrai qu'au premier abord cela constitue son principal défaut. En effet, le modèle du triplet à la base de RDF ne permet pas a priori d'exprimer des informations sur le contexte d'application de l'assertion, au contraire d'autres mécanismes de modélisation des connaissances qui offrent nativement des systèmes pour préciser la portée d'une assertion, à l'image, par exemple, des Topic Maps avec l'élément "scope". Ce défaut semble renforcé par deux postulats de base de RDF : chaque assertion exprimée est vraie et chaque triplet est indépendant.

Lire la suite...

Structuration RDF Sparql OWL Geekeries —  8 commentaires

RDFa 1.1 pour corriger les erreurs de jeunesse ?

RDFa est devenu, depuis plus d'un an, un des enjeux des batailles qui se nouent autour de HTML 5. Au cœur de la polémique, c'est ni plus ni moins que l'intégration de RDFa dans HTML 5 qui est en jeu, face au Microdata, principe concurrent proposé par Ian Hickson, un des éditeurs de HTML 5. Je ne vais pas revenir sur les débats qui agitent les spécialistes de la question, d'autant que si certains arguments sont recevables, il en est d'autres qui relèvent plus du combat d'ego. Face aux polémiques qui n'en finissaient plus d'enfler, aux retours des implémenteurs et à l'enjeu que revêtait RDFa suite aux différentes annonces effectués par Yahoo (SearchMonkey) et Google (Rich Snippets) pour ne citer qu'eux, le W3C a décidé de relancer le groupe de travail RDFa au mois de janvier 2010.

Lire la suite...

Structuration RDFa XHTML Geekeries —  1 commentaire

La gazette du Web de données (1er trimestre 2010)

Un petit trimestre est passé depuis mon billet-pelote en forme de thérapie d'écriture. A part sur ce blog, il s'est passé plein de choses et comme plusieurs d'entre vous m'ont fait part de leur intérêt pour ce type de billets, je vous propose une sélection toute personnelle des derniers potins, nouveautés, rumeurs, annonces... dans le domaine du Web sémantique et ses dérivés classée des sujets les moins techniques aux plus techniques qui vous amèneront immanquablement à mettre à disposition vos données selon les principes du Linked Data.

Lire la suite...

Web sémantique Geekeries —  1 commentaire

Photos, livres, musiques, what else ?

N'en déplaise à certains. Le manque de courage et les problèmes de structuration de ma pensée ne sont pas les seuls responsables de la diminution drastique des publications de ce blog. J'ai aussi mis à profit ces derniers mois pour développer plusieurs prototypes visant à démontrer les possibilités offertes par les technologies du Web sémantique et les données mises à disposition selon les principes du Linked Data. Je vous avais déjà présenté « la boîte à souvenirs », Manue s'était chargée, comme il se doit, du « Linked Book Mashup », permettez-moi de vous dévoiler aujourd'hui « Linked My Music ».

Lire la suite...

Structuration Sparql Wikipedia Geekeries Linked Data —  3 commentaires