mardi 24 juillet 2007

Google, Wikipedia, Amazon...pour le reste , il y a le web 2.0

Quand Roy Tennant écrivait en 2003 que les catalogues locaux des bibliothèques devaient bientôt être mis au rancart, il pensait à ceci : avoir accès à tout ce qui se publie sur un sujet ou une thématique , à un seul endroit, par une seule recherche , au même endroit. La mise à la retraite des catalogues locaux était déjà amorçé.


«The End of the Romantic Library? » Tel est le titre d'un essai patu dans Smart Libaries, un bulletin de l'ALA. En fait, pour plusieurs, la bibliothèque traditionnelle représentait une certaine image assez romantique, La fin de la bibliothèque traditionnelle? «Un million (de catalogues) dans un» . Google , de plus en plus vu comme le guichet unique de l'information, serait cette source , en tout cas aux yeux de plusieurs, sinon de tous. Au cours d'un souper social, au printemps dernier, j'ai eu encore une fois l'occasion de l'entendre dire. Me trouvant placée en sandwich à côté de deux éminents professeurs d'une institution universitaire montréalaise que je ne nommerai pas, un des deux m'interpellaient par ses propos «Vous devez être contente, c'est formidable, depuis que Google existe, je n'ai plus à mettre les pieds dans la bibliothèque, quand je veux retrouver une ressource ou une information, je regarde dans google et je fais venir la ressource par le prêt»


L'informatique est passé de l'ère du « hardware lock » quand à l' ère de « software lock in » où les éditeurs de logiciels faisaient la loi pour entrer avec Internet dans une l'ère du « data lock in ». dans cette nouvelle ère, illustrée par le succès de sites comme Google, Amazon, ou eBay, ce sont les entreprises qui détiennent le plus de données qui mènent le jeu et leur principal patrimoine est constitué du contenu donné ou prêté gratuitement par leurs utilisateurs.
Lorsque vous confiez la gestion de vos mails à Google, que vous publiez un commentaire ou faites un simple achat sur Amazon, que vous confiez vos photos à Flickr ou vos signets à del.icio.us, vous vous liez à ce site de manière d'autant plus durable qu'il ne vous propose généralement pas de moyen simple de récupérer vos données et vous échangez un service contre un enrichissement des données qu'il gère.
De nombreuses voix s'élèvent pour dénoncer la « fausse liberté » offerte par le Web 2.0 face à laquelle les utilisateurs doivent rester vigilants :
en n'échangeant leurs données que contre des services réels,
en examinant les conditions d'utilisation des sites pour connaître les droits qu'ils cèdent en échange de ces services,
en exigeant des moyens techniques qui leur permettent de récupérer ces données en s'appuyant sur des standards ouverts.
Mais encore?
Que faut-il retenir de tout cela?
Le Web 2.0 est avant tout un terme un peu vague qui regroupe le web tel qu'il se dessine en ce moment même.
Comme toute évolution, il comporte une part de risques techniques, ergonomiques, financiers et de protection de la vie privée.
Au-delà de l'aspect marketing du terme qui irrite les puristes, il traduit un formidable bouillonnement d'idées, de pratiques et de nouvelles utilisations.
Le fait même que son contour soit encore flou montre que tout est encore ouvert et que le web continue à faire la part belle aux initiatives personnelles.
Le message du Web 2.0 est un message d'espoir.
Références
Sur le web
Définitions du Web 2.0 par Wikipédia [en français] [en anglais]
Le Web 2.0 vu par Paul Graham (en anglais)
Thèse de Roy Fielding (en anglais)
Analyse de Rob Hof (en anglais)
Une fausse liberté par François Joseph de Kermadec (en anglais)
Et sur XMLfr
Le W3C annonce deux nouveaux groupes pour les clients Web riches (brève)
Qu'est-ce que le Web 2.0? (brève)
Orbeon met de l'Ajax dans PresentationServer (article)
Sortie de Cocoon 2.1.8 (brève)

Ces exemples sont intéressant dans la mesure où Wikipédia, les blogs, les wikis ou les systèmes de « tagging » utilisent généralement très peu des technologies citées comme étant celles du Web 2.0.
Ils illustrent ce que Paul Graham n'hésite pas à appeler le principe de « démocratie » du Web 2.0.
Ce principe de démocratie n'est rien d'autre que la reconnaissance du fait que le réseau Internet tirera tout son potentiel du réseau humain formé par ses utilisateurs. Au réseau technique doit donc se superposer un réseau humain et ce réseau humain doit participer à l'élaboration de son contenu.Ce n'est pas non plus une découverte puisqu'en 2000 Edd Dumbill lançait déjà WriteTheWeb, un site d'information destiné à encourager un web accessible en lecture et écriture qui remarquait que "le courant s'inversait" et que le web n'était plus à sens unique.
Cet effet réseau était également le fil conducteur de la séance plénière d'ouverture de Tim O'Reilly à la conférence OSCON 2004, un an avant de devenir le volet social du Web 2.0.
L'autre définition
Avec un volet technique et un volet social, le Web 2.0 ne risque t-il pas d'apparaître quelque peu dépareillé et de ressembler à un rassemblement hétéroclite de nouveautés?
Si ces deux volets avaient été introduits dans l'ordre inverse, on pourrait voir dans le volet technique une conséquence du volet social, le caractère collaboratif des applications Web 2.0 justifiant le recours à des technologies favorisant plus d' interactivité.
Cette analyse a posteriori exclurait du Web 2.0 des sites comme Google Maps généralement considérés comme l'exemple type du Web 2.0.
Paul Graham tente de concilier ces deux volets en proposant la deuxième définition que je retiendrai ici :
"Le Web 2.0 c'est utiliser le web comme il a été conçu pour être utilisé. Les « tendances » que nous distinguons sont simplement la nature inhérente du web qui émerge des mauvaises pratiques qui lui ont été imposées pendant la bulle [Internet]"
Cette nouvelle définition du Web 2.0 n'est pas sans rappeler d'autres grands « buzzwords » et slogans liés à Internet :
La devise du W3C est « Leading the Web to Its Full Potential... » ce que l'on pourrait traduire par « tirer du Web tout son potentiel ». Ironiquement, le Web 2.0 se fait pour le moment sans le W3C avec des technologies dont une grande partie est spécifiée par le W3C et il est tentant de voir dans la création récente d'une activité « clients web riches » une tentative rejoindre un train en marche.
Les Services Web sont une tentative pour rendre le web accessible aux applications, ce qu'il aurait toujours du être.
Le Web Sémantique, grand absent du Web 2.0, est pourtant le Web 2.0 vu par le créateur du Web 1.0.
REST est la description des interactions techniques entre clients et serveurs telles qu'elles doivent être pour être efficace sur le web.
XML est une adaptation de SGML pour faciliter l'échange de documents sur le web, ce qui aurait du être possible depuis le début (HTTP a été conçu avec cette préoccupation).
...
Ici encore, le Web 2.0 s'inscrit dans la continuité des « little big bangs » du web qui l'ont précédé

Aucun commentaire: