VoCamp Paris des 13 & 14 mai 2010

J’ai participé les 13 et 14 mai dernier à un VoCamp organisé à Paris par Hypios. Les VoCamp sont des ateliers informels réunissant les acteurs du web sémantique, dans le but de travailler sur la création de nouveaux vocabulaires, ou de nouvelles ontologies, permettant ainsi à la communauté de publier de nouvelles données exprimées grâce à ces vocabulaires.

Les groupes de travail de ce VoCamp se sont réunis autour des thèmes suivants :

  • User (weighted) interest ontology : une modélisation des centres d’intérêt des utilisateurs, avec un focus particulier sur les périodes de temps pendant lesquelles un utilisateur s’intéresse à tel ou tel sujet. C’est le thème qui a de loin intéressé le plus de participants du VoCamp. En toute franchise les objectifs d’une telle modélisation me semblent fortement ambigus; pas besoin d’être devin pour voir là l’utilisation des technologies sémantiques non pas pour rendre les gens plus intelligents, mais pour les abrutir (encore) un peu plus avec de la pub ciblée, comme le use-case de l' »adaptive advertising » pour la télévision, du projet notube; ce qui est finalement, pour les technos sémantiques, aussi une bonne nouvelle : cela veut dire que les grandes industries s’en emparent, ce qui ne peut qu’élargir leur utilisation;
  • Annotation ontology : une modélisation des annotation, ou des « tags » posés par les utilisateurs sur les pages web. Qui a taggé ? quand ? etc;
  • Argumentation ontology : une (tentative de) modélisation des arguments d’un débat, en lien avec l’outil debategraph. C’est le sujet que j’ai trouvé le plus original et le plus intéressant; comment arriver à modéliser les différents arguments et contre-arguments d’une question posée, qui peut être de l’ordre du débat social (fiancement des retraites, pour/contre l’armement nucléaire, etc.) ou simple prise de décision dans un système d’aide à la décision;
  • Vocabulary alignment & translation rule language : réflexion autour de deux problématiques : la modélisation d’alignement de vocabulaires et la modélisation de règles de traduction pour passer des données d’un modèle à un autre. C’est le groupe auquel j’ai participé; nous avons fini par présenter et nous concentrer sur STRL : Semantic Translation Rule Language, déjà discuté en interne à Mondeca avec Bernard. L’idée est de représenter des métadonnées sur des règles de traduction d’un modèle d’ontologie à un autre (quel language, quels éléments de l’ontologie impactés, etc.);

D’autres sujets proposés mais pas développés (mais qui « sont dans l’air ») : l’évolution temporelle des données (sujet sur lequel nous travaillons en ce moment à Mondeca), les « RDF Forms » (quelle connexion entre des formulaires et des données RDF), la modélisation des résultats d’outils d’analyse linguistiques.

Globalement, mon impression de ses deux jours est très positif, autant sur la qualité des participants que des thématiques abordées; il ne faut pas attendre de miracles en terme de résultats/modélisation concrètes de ses deux jours, mais cela permet de faire émerger des problématiques, d’en faire progresser d’autres, et de rencontrer des personnes intéressées par les mêmes sujets.

En tous cas un grand bravo et merci à tous les participants du VoCamp et à ses organisateurs, Milan Stankovic et Alexandre Monnin, l’organisation était parfaite – bon, sauf que c’est tombé un jour férié🙂

Laisser un commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :