mardi 24 juillet 2007

Google, Wikipedia, Amazon...pour le reste , il y a le web 2.0

Quand Roy Tennant écrivait en 2003 que les catalogues locaux des bibliothèques devaient bientôt être mis au rancart, il pensait à ceci : avoir accès à tout ce qui se publie sur un sujet ou une thématique , à un seul endroit, par une seule recherche , au même endroit. La mise à la retraite des catalogues locaux était déjà amorçé.


«The End of the Romantic Library? » Tel est le titre d'un essai patu dans Smart Libaries, un bulletin de l'ALA. En fait, pour plusieurs, la bibliothèque traditionnelle représentait une certaine image assez romantique, La fin de la bibliothèque traditionnelle? «Un million (de catalogues) dans un» . Google , de plus en plus vu comme le guichet unique de l'information, serait cette source , en tout cas aux yeux de plusieurs, sinon de tous. Au cours d'un souper social, au printemps dernier, j'ai eu encore une fois l'occasion de l'entendre dire. Me trouvant placée en sandwich à côté de deux éminents professeurs d'une institution universitaire montréalaise que je ne nommerai pas, un des deux m'interpellaient par ses propos «Vous devez être contente, c'est formidable, depuis que Google existe, je n'ai plus à mettre les pieds dans la bibliothèque, quand je veux retrouver une ressource ou une information, je regarde dans google et je fais venir la ressource par le prêt»


L'informatique est passé de l'ère du « hardware lock » quand à l' ère de « software lock in » où les éditeurs de logiciels faisaient la loi pour entrer avec Internet dans une l'ère du « data lock in ». dans cette nouvelle ère, illustrée par le succès de sites comme Google, Amazon, ou eBay, ce sont les entreprises qui détiennent le plus de données qui mènent le jeu et leur principal patrimoine est constitué du contenu donné ou prêté gratuitement par leurs utilisateurs.
Lorsque vous confiez la gestion de vos mails à Google, que vous publiez un commentaire ou faites un simple achat sur Amazon, que vous confiez vos photos à Flickr ou vos signets à del.icio.us, vous vous liez à ce site de manière d'autant plus durable qu'il ne vous propose généralement pas de moyen simple de récupérer vos données et vous échangez un service contre un enrichissement des données qu'il gère.
De nombreuses voix s'élèvent pour dénoncer la « fausse liberté » offerte par le Web 2.0 face à laquelle les utilisateurs doivent rester vigilants :
en n'échangeant leurs données que contre des services réels,
en examinant les conditions d'utilisation des sites pour connaître les droits qu'ils cèdent en échange de ces services,
en exigeant des moyens techniques qui leur permettent de récupérer ces données en s'appuyant sur des standards ouverts.
Mais encore?
Que faut-il retenir de tout cela?
Le Web 2.0 est avant tout un terme un peu vague qui regroupe le web tel qu'il se dessine en ce moment même.
Comme toute évolution, il comporte une part de risques techniques, ergonomiques, financiers et de protection de la vie privée.
Au-delà de l'aspect marketing du terme qui irrite les puristes, il traduit un formidable bouillonnement d'idées, de pratiques et de nouvelles utilisations.
Le fait même que son contour soit encore flou montre que tout est encore ouvert et que le web continue à faire la part belle aux initiatives personnelles.
Le message du Web 2.0 est un message d'espoir.
Références
Sur le web
Définitions du Web 2.0 par Wikipédia [en français] [en anglais]
Le Web 2.0 vu par Paul Graham (en anglais)
Thèse de Roy Fielding (en anglais)
Analyse de Rob Hof (en anglais)
Une fausse liberté par François Joseph de Kermadec (en anglais)
Et sur XMLfr
Le W3C annonce deux nouveaux groupes pour les clients Web riches (brève)
Qu'est-ce que le Web 2.0? (brève)
Orbeon met de l'Ajax dans PresentationServer (article)
Sortie de Cocoon 2.1.8 (brève)

Ces exemples sont intéressant dans la mesure où Wikipédia, les blogs, les wikis ou les systèmes de « tagging » utilisent généralement très peu des technologies citées comme étant celles du Web 2.0.
Ils illustrent ce que Paul Graham n'hésite pas à appeler le principe de « démocratie » du Web 2.0.
Ce principe de démocratie n'est rien d'autre que la reconnaissance du fait que le réseau Internet tirera tout son potentiel du réseau humain formé par ses utilisateurs. Au réseau technique doit donc se superposer un réseau humain et ce réseau humain doit participer à l'élaboration de son contenu.Ce n'est pas non plus une découverte puisqu'en 2000 Edd Dumbill lançait déjà WriteTheWeb, un site d'information destiné à encourager un web accessible en lecture et écriture qui remarquait que "le courant s'inversait" et que le web n'était plus à sens unique.
Cet effet réseau était également le fil conducteur de la séance plénière d'ouverture de Tim O'Reilly à la conférence OSCON 2004, un an avant de devenir le volet social du Web 2.0.
L'autre définition
Avec un volet technique et un volet social, le Web 2.0 ne risque t-il pas d'apparaître quelque peu dépareillé et de ressembler à un rassemblement hétéroclite de nouveautés?
Si ces deux volets avaient été introduits dans l'ordre inverse, on pourrait voir dans le volet technique une conséquence du volet social, le caractère collaboratif des applications Web 2.0 justifiant le recours à des technologies favorisant plus d' interactivité.
Cette analyse a posteriori exclurait du Web 2.0 des sites comme Google Maps généralement considérés comme l'exemple type du Web 2.0.
Paul Graham tente de concilier ces deux volets en proposant la deuxième définition que je retiendrai ici :
"Le Web 2.0 c'est utiliser le web comme il a été conçu pour être utilisé. Les « tendances » que nous distinguons sont simplement la nature inhérente du web qui émerge des mauvaises pratiques qui lui ont été imposées pendant la bulle [Internet]"
Cette nouvelle définition du Web 2.0 n'est pas sans rappeler d'autres grands « buzzwords » et slogans liés à Internet :
La devise du W3C est « Leading the Web to Its Full Potential... » ce que l'on pourrait traduire par « tirer du Web tout son potentiel ». Ironiquement, le Web 2.0 se fait pour le moment sans le W3C avec des technologies dont une grande partie est spécifiée par le W3C et il est tentant de voir dans la création récente d'une activité « clients web riches » une tentative rejoindre un train en marche.
Les Services Web sont une tentative pour rendre le web accessible aux applications, ce qu'il aurait toujours du être.
Le Web Sémantique, grand absent du Web 2.0, est pourtant le Web 2.0 vu par le créateur du Web 1.0.
REST est la description des interactions techniques entre clients et serveurs telles qu'elles doivent être pour être efficace sur le web.
XML est une adaptation de SGML pour faciliter l'échange de documents sur le web, ce qui aurait du être possible depuis le début (HTTP a été conçu avec cette préoccupation).
...
Ici encore, le Web 2.0 s'inscrit dans la continuité des « little big bangs » du web qui l'ont précédé

mercredi 11 juillet 2007

Sur la redocumentarisation

Au cours du débat électoral télévisé au printemps 2007 opposant les candidats à la présidence, Nicolas Sarkozi et Ségolène Royal, un échange a porté sur l’âge du réacteur nucléaire ERP. Contredisant son adversaire, Ségolène Royal soutenait qu’il s’agissait de la 3è génération du réacteur. Dans les minutes qui suivirent le débat, un internaute consulte l’article sur le réacteur en question publié sur l’Encyclodédie Wikipédia et constate que des corrections ont été apportées dans le texte. Pour donner raison à son candidat, un partisan de Nicolas Sarkozy a gommé le chiffre 3 pour le remplacer par le chiffre 4 ! S’en suit un chassé-croisé de corrections des partisans des deux bords. Au total : entre la soirée du débat et le lendemain à midi, «l’encyclopédie a connu une cinquantaine de modifications entre mercredi soir et jeudi midi. Deux fois plus qu’en un mois ! ».

Ces faits nous font penser à cet autre cas de redocumentarisation illustré par l’affaire Steigenthaler qui a donné lieu à une poursuite contre Wikipédia pour diffamation en 2005. Ils ont été relatés dans la revue en ligne Écrans par Denis Delbecq. Dans le prolongement de l’affaire EPR évoqué aussi par Olivier Ertzscheid, maitre de conférence à l’Université des sciences sociales de Toulouse, Jean-Michel Salaün, directeur de l’École de bibliothéconomie et des sciences de l’information de l’Université de Montréal nous livre sur son blogue ses réflexions sur la notion de la re-documentatisation en le situant dans le contexte de du numérique.

D’abord, qu’entendons-nous par «documentariser»? C’est, selon Jean-Michel Salaün, «ni plus ni moins que le fait de traiter un document», c'est-à-dire le cataloguer, le synthétiser, l’indexer pour le renforcer. L’objectif de la documentarisation est d’optimiser l’usage d’un document afin de permettre un meilleur accès à son contenu et une meilleure mise en contexte. En redocumentarisant un texte, l’usager renforce son utilisation par le réarrangement des contenus sémiotiques. Ce réarrangement couvre deux dimensions. La dimension interne consiste en l’extraction de morceaux musicaux, par exemple, pour les ré-agencer avec d’autres ou encore l’annotation en marge d’un écrit. La dimension externe implique la reconstitution d’un ensemble d’archives ou d’un fonds privé par le reclassement des ressources selon une logique d’associations. Sur le Web, les possibilités de redocumentisation sont décuplés et même les documents traditionnels, retransposés numériquement acquièrent cette plasticité propre aux documents numériques qui leur confère une nouvelle dimension reflétant, pour reprendre J-M Salaün, «une organisation post-moderne de notre rapport avec le monde».

Cependant, souligne J-M Salaün, la redocumentarisation ne constitue pas une rupture même si la transformation du document est telle qu’on peut se demander s’il s’agit toujours de la même entité. Les exemples de redocumentarisation, même déviantes, comme dans les cas mentionnés, montrent que la valeur de preuve intrinsèque à toute ressource reste présente puisque la falsification est retraçable et que les interventions successives peuvent l’enrichir autant qualitativement par l’ajout des sources référencées et que quantitativement par les discussions.

Dans une perspective plus globale, cette évolution de la nature du document s’inscrit dans l’évolution même des techniques de l’écrit et de l’organisation documentaire en relation avec le social. Et si changement de paradigme il y a, il s’inscrit, plutôt dans la continuité des quatre âges de l’imprimé définis par A. Marshall qui sont l'âge du livre (Gutenberg au 19è) suivi par l'âge de la presse (19è) puis l'âge de la paperasse (20è) pour aboutir à cette époque dans laquelle nous évoluons, l’âge des fichiers, dont les figures marquantes sont T. Berners-Lee et T. Nelson

Par My Loan Duong, MLS, Bibliothèque de bibliothéconomie et des sciences de l’information, 22/06/07. Corpo Clip , bulletin n.172 - août 2007 à octobre 2007, p.13