vendredi 26 octobre 2007

Les BUs sont-elles encore le (au) «coeur» de l'université?

Dans le milieu universitaire en Amérique du Nord, les bibliothèques universitaires ont occupé jusqu'ici une place privilégiée. Perçues autant par la communauté universitaire que par ses hauts dirigeants comme la plaque tournante de l'information et du savoir, le lieu de dépôt et de diffusion des ressources documentaires indispensables à la conduite de l'enseignement et à la recherche de l'institution, les BUs ont jusqu'ici bénéficié d'un biais favorable lors des demandes de subvention ou de crédits accordés pour le financement de ses services et ses activités. C'est pourquoi les administrateurs de BUs ont reçu comme une douche froide une récente étude, publiée dans College & Research Libraries, may 2007, vol.68, n.3 d'un groupe de professeurs d'université, de directeurs de BU, et de chercheurs de plusieurs grandes universités américaines. Pilotée par Beverly P. Lynch, professeur en sciences de l'information à l'Université de California de Los Angeles, les conclusions de cette étude qui reprend les données d'une enquête antérieure conduite par Deborah Grimes en 1992-1992 indiquent que les BUs n'occupent plus la place centrale qu'elles détenaient au sein de leurs établissement pour fournir, diffuser et distribuer les ressources informationnelles et documentaires à la communauté universitaire.

Le concept de la centralité des bibliothèques universitaires remis en question

Les chercheurs ne vont plus nécessairement d'emblée vers les catalogues locaux pour trouver leurs ressources. Selon Lynch et ses collègues, les développements technologiques et la transformation de l'environnement documentaire ont remis en question le concept de la centralité des BUs. L'arrivée en force des technologies de l'information, l'invasion des moteurs de recherche comme Google, MSN, Yahoo, la présence des produits interopérables, des logiciels gratuits avec la panoplie des offres regroupées de publications de toutes sortes, ont contribué, en moins d'une décennie, à faire du catalogue local des bibliothèques une ressource accessoire ou complémentaire parmi le vaste ensemble d'outils et de ressources dédiés à la recherche et l'enseignement. Alors que la bibliothèque et son catalogue étaient, il y a quelques décennies, indissociables: l'une étant le reflet de l'autre, pour le meilleur et pour le pire, le catalogue local à moins d'être convivial, n'est plus la plaque tournante de l'accès aux ressources de l'institution. Le monde de la documentation s'est transformé avec l'ère du numérique qui a fait basculer le principe de la notion du droit de propriété à celui du droit d'usage et les ressources documentaires sont passées du «rayonnage au fonds virtuel» (Duong, CorpoClip, n.173, nov. 2007). Désormais les professionnels de l'information devront composer avec «les utilisateurs qui en demandent et les éditeurs de technologie de pointe qui tendent de plus en plus à investir le marché de l'intermédiation».

La levée des barrières à l'accès aux ressources a accru considérablement la visibilité des produits et en conséquence, l'ergonomie et le temps d'accès sont constamment améliorés à la satisfaction des utilisateurs les plus exigeants. Avec l'économie numérique, l'information va au devant de l'utilisateur. Les catalogues des BUs qui sont issus des systèmes intégrés de gestion de bibliothèques de la deuxième génération vieillissent mal et sont supplantés par les interfaces des catalogues de la dernière génération. De plus en plus, les usagers trouvent leurs ressources ailleurs que dans le catalogue de leur bibliothèque ou s'attendent à des catalogues de type Google, avec des options de recherche élaborées qui renvoient à des ressources complémentaires ou connexes enrichies de revues de lecture, de reproductions des couvertures des ouvrages et des tables des matières avec en prime de fichiers d'autorité et renvois à la copie originale ou aux bibliothèques dépositaires.

Le catalogue local au rancart?

Ce point de vue est repris dans une autre étude publiée sous le titre Researchers’ Use of Academic Libraries and their Services, a report commissioned by the Research Information Network and the Consortium of Research Libraries, RIN & CURL April 2007. Selon les chercheurs cependant, le catalogue local a toujours son importance, en autant qu'il offre les solutions appropriées pour répondre aux nouvelles attentes de l'usager car celui-ci désire toujours avoir en mains et sur place ce dont il a besoin. Le catalogue local n'est plus la ressource à laquelle s'identifiait exclusivement la BU mais plutôt considéré comme un outil dans l'ensemble plus vaste des moyens offerts ou mis en place par l'institution pour accéder aux informations. L'utilisateur de la bibliothèque s'attend à voir à côté du catalogue local d'autres ressources comme les dépôts institutionnels, les bases de fichiers numérisés etc.«alongside the catalogue [he]foresees discovery systems for other collection types (the institutional repository, the digital asset repository, etc)». Parallèlement, ils s'attendent aussi à ce que le catalogue local soit relié à d'autres environnements externes comme Google ou Amazon par les fils RSS et autres.

Roy Tennant dans l'article «Demise of the Local Catalog», (LJ, july 2007)écrit que même si les systèmes intégrés de gestion de bibliothèque ne seront plus sur le devant de la scène, il est trop tôt de dire que le catalogue local doit être mis au rancart. Les usagers préfèrent encore trouver le plus possible d'informations sur un sujet ou une thématique à un seul endroit, dans une seule recherche plutôt qu'avoir à se promener à 36 endroits différents et jouer avec plusieurs interfaces. Cela est possible et selon l'auteur, plusieurs produits offrent la possibilité de sauver le temps et d'éviter les problèmes pour les chercheurs. La solution «All in one» existe, par exemple: les bibliothèques de l'Université de Washington offre une version «locale», taillée sur mesure de Worldcat.

Tous conviennent que les BUs continueront à jouer un rôle majeur dans la gestion et la conservation des ressources documentaires imprimées, numériques et autres. Les BUs doivent prendre en charge le transfert de contenu électronique des fichiers et des articles numérisés pour la communauté universitaire, de la diffusion des publications produites par ses membres, de l’entreposage des documents et de la création des bases de connaissances, de l'archivage des ressources imprimées, de l'édition des thèses, des mémoires, revues et de journaux produits par la communauté, tout cela dans un contexte de concurrence entre non seulement les universités elles-mêmes mais aussi entre les départements, facultés et services à l'intérieur de l'institution, alors que l'argent se fait rare.

Les BUs vivent sous haute pression car elles doivent aussi penser à la réorganisation des espaces de travail et de leurs services en fonction d'un environnement technologique en changement constant. Alors que les éditeurs de technologie de pointe se présentent de plus en plus comme une menace en investissant les sphères de la documentation, les BUs devront renforcer (et défendre) plus que jamais leur rôle en tant qu'intermédiaire et de médiateur entre l'information et l'usager. Les interfaces des catalogues de la dernière génération doivent être des outils de découverte, d'innovation et d'exploration vers d'autres ressources et sites. Le catalogue local étant considéré comme le seuil ou la porte d'entrée de toute bibliothèque, c'est à partir de cet outil et de son efficacité, que les services de la BU sont évalués. Car, pour gagner le coeur et le...portefeuille des bailleurs de fonds, les BUs sont placées devant l'obligation d’anticiper les besoins de leurs usagers, de créer de nouveaux modèles toujours plus innovants et d'offrir de solutions adéquates aux demandes informationnelles croissantes de la communauté universitaire.

*Quelques catalogues de la 3è génération : McMaster University Library Catalog, University of Washington Library Catalog, University of Toronto Library Catalog
par My Loan Duong, MLS,

jeudi 4 octobre 2007

Wikiscanner pour dépister ceux qui publient dans Wikipedia

Aux grands maux, les grands remèdes: Avis aux «wikipédiens manipulateurs». Développé par Virgil Griffith, un étudiant en sciences cognitives, le logiciel Wikiscanner lancé le 13 août dernier aux États-Unis permettra dorénavant d'identifier l'adresse IP de tous ceux qui modifient les contenus dans l'encyclopédie en ligne Wikipédia. L'outil permet , grâce à une base de données de 34, 5 millions de contributions anonymes d'extraire les adresses IP des wikipédiens et donc de trouver les organismes et les entreprises où elles se logent. Ces organismes et ces entreprises sont retracés grâce aux bases de données publiques comme DNS Stuff, Arin Whois.... Plus déroutant encore, il semble que des journalistes «ont repéré de nombreuses modifications mensongères faites par des organismes très officiels...» Comme quoi la prudence est toujours de mise quand on surfe sur le Net...(Source : Bases/Netsources. n.69, juillet-août 2007, p.8)

mardi 25 septembre 2007

Second life : la deuxième vie ou l'univers en 3 dimensions

Le phénomène de la Seconde Vie (Second Life) fera-t-il long feu? Certains y croient, d'autres non. Coup d'oeil sur une nouvelle tendance .

Vous avez besoin d'un terrain, d'un site pour y construire un projet que vous caressez ? Pour en faire une terrain de jeu ou une place de réunions et de rencontres avec des amis ou des collègues partageant les mêmes intérêts que vous ? À moins que vous ne vouliez bâtir votre propre univers, à votre image, sur vos propres terres . «Perhaps you have an idea for a huge project which you want to realize, and you just need a lot of open space to build. Maybe you and a group of friends and colleagues are looking for a gathering place which can expand as your community grows. Or maybe you have visions of a world under your own control, where you add land with each increase of your population»
Créé en 2003 par la firme californienne Linden Lab, le logiciel Second Life permet de réaliser tous vos rêves d'expansion et d'aventure . La seule limite à vos désirs d'expansion et à de liberté est votre imagination. Le logiciel Seconf life est un outil destiné à offrir une plateforme aux organismes ou aux individus qui veulent se contruire une autre représentation, cette fois virtuelle de leur existence. Mais avant tout, c'est un site participatif , nouvelle tendance :«C'est un monde nouveau qu'il faut apprendre à apprivoiser», résume Boris Ung, étudiant à l'Université Laval et créateur du campus de l'Université Laval installé près d'un phare, au bord d'une mer composée de codes binaires. Boris Ung a investi 250$ pour se bâtir sur le terrain du campus virtuel de l'Université Laval un espace où il expose «les travaux de création publicitaire d'étudiants en communication et propose des liens pour des cours en ligne offerts par l'institution scolaire ainsi que pour quelques publications». L'expérience de ce jeune étudiant est reporté dans la rubrique les Actualités , du journal le Devoir, samedi, 8 septembre 2007, p. a2.
http://secondlife.com/community/land-islands.php

À voir et à s'inspirer.

mardi 24 juillet 2007

Google, Wikipedia, Amazon...pour le reste , il y a le web 2.0

Quand Roy Tennant écrivait en 2003 que les catalogues locaux des bibliothèques devaient bientôt être mis au rancart, il pensait à ceci : avoir accès à tout ce qui se publie sur un sujet ou une thématique , à un seul endroit, par une seule recherche , au même endroit. La mise à la retraite des catalogues locaux était déjà amorçé.


«The End of the Romantic Library? » Tel est le titre d'un essai patu dans Smart Libaries, un bulletin de l'ALA. En fait, pour plusieurs, la bibliothèque traditionnelle représentait une certaine image assez romantique, La fin de la bibliothèque traditionnelle? «Un million (de catalogues) dans un» . Google , de plus en plus vu comme le guichet unique de l'information, serait cette source , en tout cas aux yeux de plusieurs, sinon de tous. Au cours d'un souper social, au printemps dernier, j'ai eu encore une fois l'occasion de l'entendre dire. Me trouvant placée en sandwich à côté de deux éminents professeurs d'une institution universitaire montréalaise que je ne nommerai pas, un des deux m'interpellaient par ses propos «Vous devez être contente, c'est formidable, depuis que Google existe, je n'ai plus à mettre les pieds dans la bibliothèque, quand je veux retrouver une ressource ou une information, je regarde dans google et je fais venir la ressource par le prêt»


L'informatique est passé de l'ère du « hardware lock » quand à l' ère de « software lock in » où les éditeurs de logiciels faisaient la loi pour entrer avec Internet dans une l'ère du « data lock in ». dans cette nouvelle ère, illustrée par le succès de sites comme Google, Amazon, ou eBay, ce sont les entreprises qui détiennent le plus de données qui mènent le jeu et leur principal patrimoine est constitué du contenu donné ou prêté gratuitement par leurs utilisateurs.
Lorsque vous confiez la gestion de vos mails à Google, que vous publiez un commentaire ou faites un simple achat sur Amazon, que vous confiez vos photos à Flickr ou vos signets à del.icio.us, vous vous liez à ce site de manière d'autant plus durable qu'il ne vous propose généralement pas de moyen simple de récupérer vos données et vous échangez un service contre un enrichissement des données qu'il gère.
De nombreuses voix s'élèvent pour dénoncer la « fausse liberté » offerte par le Web 2.0 face à laquelle les utilisateurs doivent rester vigilants :
en n'échangeant leurs données que contre des services réels,
en examinant les conditions d'utilisation des sites pour connaître les droits qu'ils cèdent en échange de ces services,
en exigeant des moyens techniques qui leur permettent de récupérer ces données en s'appuyant sur des standards ouverts.
Mais encore?
Que faut-il retenir de tout cela?
Le Web 2.0 est avant tout un terme un peu vague qui regroupe le web tel qu'il se dessine en ce moment même.
Comme toute évolution, il comporte une part de risques techniques, ergonomiques, financiers et de protection de la vie privée.
Au-delà de l'aspect marketing du terme qui irrite les puristes, il traduit un formidable bouillonnement d'idées, de pratiques et de nouvelles utilisations.
Le fait même que son contour soit encore flou montre que tout est encore ouvert et que le web continue à faire la part belle aux initiatives personnelles.
Le message du Web 2.0 est un message d'espoir.
Références
Sur le web
Définitions du Web 2.0 par Wikipédia [en français] [en anglais]
Le Web 2.0 vu par Paul Graham (en anglais)
Thèse de Roy Fielding (en anglais)
Analyse de Rob Hof (en anglais)
Une fausse liberté par François Joseph de Kermadec (en anglais)
Et sur XMLfr
Le W3C annonce deux nouveaux groupes pour les clients Web riches (brève)
Qu'est-ce que le Web 2.0? (brève)
Orbeon met de l'Ajax dans PresentationServer (article)
Sortie de Cocoon 2.1.8 (brève)

Ces exemples sont intéressant dans la mesure où Wikipédia, les blogs, les wikis ou les systèmes de « tagging » utilisent généralement très peu des technologies citées comme étant celles du Web 2.0.
Ils illustrent ce que Paul Graham n'hésite pas à appeler le principe de « démocratie » du Web 2.0.
Ce principe de démocratie n'est rien d'autre que la reconnaissance du fait que le réseau Internet tirera tout son potentiel du réseau humain formé par ses utilisateurs. Au réseau technique doit donc se superposer un réseau humain et ce réseau humain doit participer à l'élaboration de son contenu.Ce n'est pas non plus une découverte puisqu'en 2000 Edd Dumbill lançait déjà WriteTheWeb, un site d'information destiné à encourager un web accessible en lecture et écriture qui remarquait que "le courant s'inversait" et que le web n'était plus à sens unique.
Cet effet réseau était également le fil conducteur de la séance plénière d'ouverture de Tim O'Reilly à la conférence OSCON 2004, un an avant de devenir le volet social du Web 2.0.
L'autre définition
Avec un volet technique et un volet social, le Web 2.0 ne risque t-il pas d'apparaître quelque peu dépareillé et de ressembler à un rassemblement hétéroclite de nouveautés?
Si ces deux volets avaient été introduits dans l'ordre inverse, on pourrait voir dans le volet technique une conséquence du volet social, le caractère collaboratif des applications Web 2.0 justifiant le recours à des technologies favorisant plus d' interactivité.
Cette analyse a posteriori exclurait du Web 2.0 des sites comme Google Maps généralement considérés comme l'exemple type du Web 2.0.
Paul Graham tente de concilier ces deux volets en proposant la deuxième définition que je retiendrai ici :
"Le Web 2.0 c'est utiliser le web comme il a été conçu pour être utilisé. Les « tendances » que nous distinguons sont simplement la nature inhérente du web qui émerge des mauvaises pratiques qui lui ont été imposées pendant la bulle [Internet]"
Cette nouvelle définition du Web 2.0 n'est pas sans rappeler d'autres grands « buzzwords » et slogans liés à Internet :
La devise du W3C est « Leading the Web to Its Full Potential... » ce que l'on pourrait traduire par « tirer du Web tout son potentiel ». Ironiquement, le Web 2.0 se fait pour le moment sans le W3C avec des technologies dont une grande partie est spécifiée par le W3C et il est tentant de voir dans la création récente d'une activité « clients web riches » une tentative rejoindre un train en marche.
Les Services Web sont une tentative pour rendre le web accessible aux applications, ce qu'il aurait toujours du être.
Le Web Sémantique, grand absent du Web 2.0, est pourtant le Web 2.0 vu par le créateur du Web 1.0.
REST est la description des interactions techniques entre clients et serveurs telles qu'elles doivent être pour être efficace sur le web.
XML est une adaptation de SGML pour faciliter l'échange de documents sur le web, ce qui aurait du être possible depuis le début (HTTP a été conçu avec cette préoccupation).
...
Ici encore, le Web 2.0 s'inscrit dans la continuité des « little big bangs » du web qui l'ont précédé

mercredi 11 juillet 2007

Sur la redocumentarisation

Au cours du débat électoral télévisé au printemps 2007 opposant les candidats à la présidence, Nicolas Sarkozi et Ségolène Royal, un échange a porté sur l’âge du réacteur nucléaire ERP. Contredisant son adversaire, Ségolène Royal soutenait qu’il s’agissait de la 3è génération du réacteur. Dans les minutes qui suivirent le débat, un internaute consulte l’article sur le réacteur en question publié sur l’Encyclodédie Wikipédia et constate que des corrections ont été apportées dans le texte. Pour donner raison à son candidat, un partisan de Nicolas Sarkozy a gommé le chiffre 3 pour le remplacer par le chiffre 4 ! S’en suit un chassé-croisé de corrections des partisans des deux bords. Au total : entre la soirée du débat et le lendemain à midi, «l’encyclopédie a connu une cinquantaine de modifications entre mercredi soir et jeudi midi. Deux fois plus qu’en un mois ! ».

Ces faits nous font penser à cet autre cas de redocumentarisation illustré par l’affaire Steigenthaler qui a donné lieu à une poursuite contre Wikipédia pour diffamation en 2005. Ils ont été relatés dans la revue en ligne Écrans par Denis Delbecq. Dans le prolongement de l’affaire EPR évoqué aussi par Olivier Ertzscheid, maitre de conférence à l’Université des sciences sociales de Toulouse, Jean-Michel Salaün, directeur de l’École de bibliothéconomie et des sciences de l’information de l’Université de Montréal nous livre sur son blogue ses réflexions sur la notion de la re-documentatisation en le situant dans le contexte de du numérique.

D’abord, qu’entendons-nous par «documentariser»? C’est, selon Jean-Michel Salaün, «ni plus ni moins que le fait de traiter un document», c'est-à-dire le cataloguer, le synthétiser, l’indexer pour le renforcer. L’objectif de la documentarisation est d’optimiser l’usage d’un document afin de permettre un meilleur accès à son contenu et une meilleure mise en contexte. En redocumentarisant un texte, l’usager renforce son utilisation par le réarrangement des contenus sémiotiques. Ce réarrangement couvre deux dimensions. La dimension interne consiste en l’extraction de morceaux musicaux, par exemple, pour les ré-agencer avec d’autres ou encore l’annotation en marge d’un écrit. La dimension externe implique la reconstitution d’un ensemble d’archives ou d’un fonds privé par le reclassement des ressources selon une logique d’associations. Sur le Web, les possibilités de redocumentisation sont décuplés et même les documents traditionnels, retransposés numériquement acquièrent cette plasticité propre aux documents numériques qui leur confère une nouvelle dimension reflétant, pour reprendre J-M Salaün, «une organisation post-moderne de notre rapport avec le monde».

Cependant, souligne J-M Salaün, la redocumentarisation ne constitue pas une rupture même si la transformation du document est telle qu’on peut se demander s’il s’agit toujours de la même entité. Les exemples de redocumentarisation, même déviantes, comme dans les cas mentionnés, montrent que la valeur de preuve intrinsèque à toute ressource reste présente puisque la falsification est retraçable et que les interventions successives peuvent l’enrichir autant qualitativement par l’ajout des sources référencées et que quantitativement par les discussions.

Dans une perspective plus globale, cette évolution de la nature du document s’inscrit dans l’évolution même des techniques de l’écrit et de l’organisation documentaire en relation avec le social. Et si changement de paradigme il y a, il s’inscrit, plutôt dans la continuité des quatre âges de l’imprimé définis par A. Marshall qui sont l'âge du livre (Gutenberg au 19è) suivi par l'âge de la presse (19è) puis l'âge de la paperasse (20è) pour aboutir à cette époque dans laquelle nous évoluons, l’âge des fichiers, dont les figures marquantes sont T. Berners-Lee et T. Nelson

Par My Loan Duong, MLS, Bibliothèque de bibliothéconomie et des sciences de l’information, 22/06/07. Corpo Clip , bulletin n.172 - août 2007 à octobre 2007, p.13



jeudi 14 juin 2007

L'affaire Steigenthaler, Wikipédia et les usages déviants de l'internet

Tout le monde connait Wikipédia, cette encyclopédie ouverte et gratuite créée en 2001 par Jimmy Wales, dans la mouvance de la philosophie Internet: n'importe qui peut créer le contenu et publier les textes. Cette absence de droit d'auteur a fait craindre pour la qualité des écrits et la fiabilité des auteurs. Crainte injustifiée, selon d'autres, qui dans une recherche publiée dans le magazine Nature soutiennent que sur le plan de la qualité, les articles publiés dans Wikipedia sont aussi crédibles que ceux de l'Encyclopedia Britannica. L'affaire Steigenthaler remet en question ce point de vue.
Au départ, c'était juste un blague, pas très subtile ( est-il utile de le souligner?) que Brian Chase de Nashville au Tennessee, en mai 2005, voulait faire à un collègue de travail. Elle remonte à mai 2005, quand Brian Chase trouve dans Wikipedia un article sur John Seigenthaler Sr, journaliste connu et ex-rédacteur en chef du journal The Tennessian de Nashville. Il le réédite, en ajoutant que ce notable est impliqué dans les assassinats de John et de Robert Kennedy. Six mois plus tard, en octobre 2005, Steigenthaler, par un hasard quelconque, prit connaissance de l'écrit. Il contacta alors Jimmy Wales pour dénoncer cette fausseté à son endroit . Le fondateur de Wikipedia accepta de retirer la biographie de la dernière mise à jour et des mises à jours antérieures qui étaient aussi disponibles sur le Web, la politique de Wikipedia étant de laisser accessibles toutes les versions. Cependant, quand Seigenthaler voulut connaître l'identité de l'auteur de ces faussetés pour exiger réparation, il subit une autre frustration: Wikipedia ne pouvait que lui fournir l'adresse IP de l'usager.
Outré, Seigenthaler relata sa mésaventure dans un article que USA TODAY publia le 30 novembre 2005 sous le titre : "A false Wikipedia 'biography' ; This is a story of how vandals, hiding behind federal privacy laws, can use the highly popular, free online encyclopedia to attack fellow citizens. It could happen to you" .
C'est que le droit américain fait la différence entre les éditeurs et les fournisseurs de service. À l'instar de AOL, Amazon, Yahoo, etc..., Wikipédia n'est pas considéré comme un éditeur mais un fournisseur de services car l'encyclopédie est ouverte et n'importe quel utilisateur peut y éditer des textes. N'étant pas considéré comme un éditeur, Wikipedia est donc protégé contre les poursuites en diffamation ( Article 230 du Communications Decency Act) . D'autre part, la responsabilité de Wikipédia en tant qu'organisation ne peut être invoquée ici puisque les faussetés sont l'oeuvre des internautes c'est à dire d'individus et que le propos diffamatoire n'étant pas connu d'avance, la compagnie n'en est pas responsable. Échaudées par l'expérience de Steigenthaler, un regroupement des personnes ayant été l'objet de diffamations sur Internet crée un site pour inviter ceux qui ont été l'objet de préjudices semblables à se joindre à eux et intente un recours collectif contre Wikipedia et d'autres sites similaires. Le groupe réclame que ces fournisseurs de services assument la responsabilité légale de leur contenu. Les chances de succès de cette poursuite? Pratiquement nulle, disent les experts.Car Wikipedia se définissant comme "fournisseur de services informatiques interactifs" ne peut être poursuivi pour les actes diffamatoires des internautes pris individuellement. Un peu plus tard, Brian Chase admit publiquement être l'auteur de la fausse biographie et présenta ses excuses à Seigenthal dans un texte publié par USA TODAY en décembre 2005. Entre temps, pour limiter les dégâts, le créateur de Wikipedia Jimmy Wales changea la politique d'accès à l'édition des informations sur Wikipedia. Désormais seuls les usagers dûment "enregistrés" peuvent changer le contenu.
Palliatif ou règlement provisoire qui ne résoud pas le problème de fond et qui laisse entière la question de la responsabilité des pollueurs d'internet.

* Une équipe d'experts mandatés par la revue Nature a comparé la véracité des informations dans Wikipédia avec Encyclopaedia Britannica a constaté que le nombre d'erreurs ou d'omissions trouvées dans Wikipédia sont sensiblement semblables à celles trouvées dans l'encyclopédie britannique. Sur 42 entrées , les experts ont décelé 4 erreurs dans Wikipédia contre 3 dans Britannica et au niveau des omissions ou erreurs ils ont retracé 162 contre 123 pour Britannica. Wikipédia étant une encyclopédie ouverte, le phénomène d'autorégulation entre les auteurs-lecteurs a contribué à améliorer le contenu, une information fausse mise par un visiteur se trouvant corrigée par un autre visiteur.

Bibliographie:
Don't blame character smear on Wikipedia; [FINAL Edition] USA TODAY. McLean, Va.: Dec 9, 2005. pg. A.22 Column Name: Letters Section: NEWS ISSN/ISBN: 07347456
It's online, but is it true? ; Misinformation undermines freewheeling Wikipedia; [FINAL Edition] Janet Kornblum. USA TODAY. McLean, Va.: Dec 7, 2005. pg. D.7
A false Wikipedia 'biography' ; This is a story of how vandals, hiding behind federal privacy laws, can use the highly popular, free online encyclopedia to attack fellow citizens. It could happen to you.; John Seigenthaler. USA TODAY. McLean, Va.: Nov 30, 2005. pg. A.11
Author of false Wikipedia biography apologizes ; Nashville man sends letter to journalist, says entries were intended as 'a joke'; Susan Page. USA TODAY. McLean, Va.: Dec 12, 2005. pg. A.4
La contreverse Wikipedia par Jérémie Lavoie et Amir Nakhjavani dans Le Pigeon Dissident: le journal des étudiantes et des étudiants de la Faculté de droit de l'Université de Montréal. vol.29, n. 5, 24 janvier 2006, pp: 1-2

Mots-clés: Droits d'auteur; Propriété intellectuelle; Diffamation- Internet; Wikipedia: