OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Il faut sauver Wikipedia http://owni.fr/2011/08/24/il-faut-sauver-wikipedia/ http://owni.fr/2011/08/24/il-faut-sauver-wikipedia/#comments Wed, 24 Aug 2011 06:28:45 +0000 Cédric Le Merrer (Fluctuat.net) http://owni.fr/?p=76785 D’abord les chiffres : jusqu’à 90 000 en 2010, les contributeurs actifs n’étaient que 82 000 en juin dernier. Beaucoup sont persuadés que la chute du nombre de contributeurs n’est qu’un phénomène naturel : l’encyclopédie serait complète et surtout  Wikipedia reflètant les centres d’intérêt de son contributeur moyen, “un geek masculin de 26 ans” selon son fondateur Jimmy Wales, l’encyclopédie manque fatalement de points de vue féminins et non occidentaux.

Mais cette baisse somme toute assez limitée cache un phénomène plus alarmiste : Wikipedia ne correspond plus aux usages en vogue aujourd’hui sur le web, après avoir été pourtant le symbole le plus évident du web 2.0. Reposant sur des outils de programmation dynamique, facile à modifier sans savoir programmer, Wikipedia était avant tout ce qu’en font ses usagers. Que s’est-il passé ?

Symbole des mutations de l’époque, Wikipedia reflète aussi les aspirations libertaires de son fondateur. Jimmy Wales est un libertarien, un individualiste qui ne croit ni en la “société” ni en la légitimité d’aucun gouvernement. Le projet Wikipedia découle donc de cette idée que tout un chacun peut apporter ses connaissances. Un de ses mythes fondateurs sera celui de la mort de l’expert : tout le monde est un expert de sa propre expérience, nous sommes tous égaux devant la machine, il n’y a plus d’experts.  Wales est aussi un représentant de l’idéologie californienne, celle de Google et de la Silicon Valley, selon laquelle les ordinateurs permettraient d’organiser les interactions humaines pour le meilleur. Nous sommes tous égaux devant la machine.

Les nouveaux experts

Le problème, dans la pratique, c’est que la machine ne suffit pas à organiser toutes les contributions. Il a fallu instaurer des règles, des normes et des exceptions dont la liste ferait passer la Constitution européenne pour les règles du jeu de dames. Et même si les règles du jeu précisent bien que tous les contributeurs sont égaux qu’ils soient là depuis dix ans ou dix jours, les administrateurs sont les seuls à connaitre ces règles et leur pouvoir est fondé là dessus. Si vous pouvez toujours contester leurs décisions, il vous faudra faire l’effort d’en apprendre autant qu’eux et courir le risque de devenir comme eux.

Demandez à quiconque a tenté de contribuer en dilettante ces dernières années, et un problème typique d’internet émerge : la communauté bashe les noobs. Vous décidez de compléter la page Wikipedia de votre groupe punk préféré, et le lendemain toutes vos modifications sont annulées par un administrateur qui vous reproche d’avoir mis les noms propres en gras et les citations en italique. Tous ne sont pas comme ça, mais les témoignages de contributeurs découragés par une expérience semblable sont légion. Wikipedia n’a pas tué les experts, il en a créé de nouveaux, les experts de Wikipedia, et ils ne valent guère mieux. Le premier pas pour sauver Wikipedia serait de faire le ménage dans le règlement et dans les administrateurs, au risque de perdre encore plus de contributeurs dans un premier temps.

La conception nouvelle du web proposée par Wikipedia en 2001 est devenue la norme aujourd’hui : fournissez des outils, les internautes feront le travail. Un modèle qui fait sens pour Wikipedia, mais qui en fait encore plus pour des sites commerciaux qui font fortune sur ce travail gratuit. Proposer aux internautes de créer du contenu via des outils simples n’est plus l’exception mais la règle.

En 2001, modifier une page de Wikipedia en quatre ou cinq clics et en n’apprenant que quelques balises de mise en forme, c’était une révolution. Mais quand on est habitué aux commandes Ajax et au WISYWIG de sites plus récents, devoir passer par trois pages différentes pour apporter la moindre contribution à Wikipedia, c’est incroyablement fastidieux. Symbole du web 2.0, Wikipedia tombe en désuétude en même temps que le concept qu’il incarna le mieux – le terme web 2.0 lui même étant tombé en désuétude. On parle désormais de social media. D’un point de vue technologique, il y a peu de différence, mais à l’usage, il y en a une fondamentale : l’identité.

L’impossible personal branding des contributeurs

Le contributeur de Wikipedia ou l’utilisateur du moteur de recherche Google est un anonyme. On peut s’enregistrer sur Wikipedia, se choisir un pseudo, faire partie d’une communauté, mais au final les articles ne sont pas signés, puisqu’ils sont censés être l’oeuvre de la communauté plutôt que d’experts identifiés. Le web social, à l’opposé, repose entièrement sur les connexions entre des individus clairement identifiés, sur leur influence, sur leur égo, même. C’est pour ça qu’il est devenu l’outil préféré des experts de tout poil, ou du moins de ceux qui désirent être reconnus comme tels et pratiquer le personal branding.

Face à Wikipedia, il y a donc toute une armée de médias sociaux qui se battent pour notre attention et qui nous récompensent en flattant notre égo. Pourquoi contribuer anonymement (ou quasiment) à une encyclopédie ingrate quand on peut devenir “influent” sur Tumblr ou Twitter, qu’on peut s’imposer comme “storyteller” sur Pearltrees et Storify ou comme “curateur” sur Scoop.it et Paper.li ?

Pour se défendre, Wikipedia commence à adopter les armes de l’ennemi, principalement avec le bouton “Wikilove” qui permet de remercier un contributeur en lui envoyant une image, comme un like ou ou +1. Une mesure qui sent cependant le “trop peu, trop tard” face à tous les moyens développés par les social medias pour flatter nos égos. Il faudrait que Wikipedia en fasse beaucoup plus pour concurrencer les médias sociaux sur le terrain du personnal branding pour espérer les concurrencer, mais ça voudrait dire abandonner son idéal californien qui place la machine au coeur des interactions.

La guerre entre web 2.0 et social media fait rage, une guerre entre deux futurs, Terminator ou Big Brother, et ce dernier est en train de gagner. Si Wikipedia veut survivre, il faudra trouver une façon d’adapter son Terminator sans se transformer en Big Brother. Ca tombe bien, on avait envie d’aucun des deux.

Aujourd’hui, l’internaute moyen va utiliser la si respectable Wikipedia comme source principale de connaissance et ne prendra pas le temps de vérifier ce qu’il y lit. Si Wikipedia contredit ce qu’il sait, il changera plus probablement d’avis qu’il ne modifiera la page. Pour redevenir un site vibrant et excitant, Wikipedia pourrait mettre un coup de pied dans sa propre fourmilière en abandonnant le principe de “neutralité de point de vue” qui de toute façon est bien trop problématique.

Une des plus grandes richesses de Wikipedia, c’est l’accès qu’elle donne à travers les pages “discussions” aux débats internes constants sur sa construction. Plutôt que de les garder séparés du contenu, Wikipedia pourrait adopter un nouveau principe, celui de la “multiplicité des points de vue”, et rendre visible sur chaque page des versions différentes et plus colorées de ses articles. Au lecteur de faire le tri ensuite entre des points de vue exprimés avec conviction, plutôt qu’entre des versions émasculées par les disputes qui ont lieu derrière le rideau. Wikipedia pourrait vivre indéfiniment de l’animation apportée par ces disputes plutôt que de se scléroser dans une version molle de la réalité, et l’encyclopédie n’en serait que plus complète.


Crédits photo FlickR CC by-nc-sa leralle / by-nc-sa Ethan Hein / by-nc-sa Pete Prodoehl

Article initialement sur fluctuat.net sous le titre : “Comment sauver le soldat Wikipédia ?

]]>
http://owni.fr/2011/08/24/il-faut-sauver-wikipedia/feed/ 63
Les Craypion d’or, le mythe du web vernaculaire http://owni.fr/2010/12/29/les-craypion-d%e2%80%99or-le-mythe-du-web-vernaculaire/ http://owni.fr/2010/12/29/les-craypion-d%e2%80%99or-le-mythe-du-web-vernaculaire/#comments Wed, 29 Dec 2010 07:30:44 +0000 Vincent Glad http://owni.fr/?p=40428 Les Craypion d’or qui ont eu lieu vendredi 17 décembre à Paris, sont l’équivalent pour le web des Gérards du cinéma ou des Razzie Awards aux États-Unis. Mais contrairement à ces deux cousins réductibles au «pire du cinéma», les Craypion d’or sont plus subtils à définir. Dans sa dépêche de compte-rendu, l’AFP a bien pris soin de ne pas utiliser le mot «pire» . Les Craypion sont pour l’agence un «prix ironique honorant un site ou une création web “venue d’ailleurs, aux couleurs chatoyantes et au look qui pique les yeux”. Rien à voir avec la dépêche traitant des Gérards du Cinéma, titrée «le pire du cinéma français».

Célébration d’un Internet alternatif

Cette prévention de l’AFP n’est pas anodine. Elle permet de mieux comprendre le sens des Craypion d’or qui ne récompensent pas le «pire» d’Internet mais plutôt un autre Internet. Le palmarès (dont voici quelques uns des prix) en témoigne:

Le créateur des Craypion, le blogueur Henry Michel, esquisse cet autre Internet dans une vidéo publiée sur Citizenside:

On est une communauté de gens qui aimons le web. Et on a des parents, des tontons, des cousins, des petites sœurs qui utilisent le web d’une manière qu’on peut snober au début mais ils s’éclatent avec ça, ils s’éclatent avec leurs contenus. Mon père, il envoie des Powerpoint de 20 Go par mail et ça me fait mourir de rire et je l’aime. C’est un peu ça: ce sont des gens qu’on aime mais qui nous font mourir de rire.

Quand les Gérards de la télévision espèrent —non sans ironie— «améliorer la qualité des programmes et des animateurs» grâce à leur «critique constructive du PAF», les Craypion d’or prennent le web tel qu’il est et ne cherchent surtout pas à l’améliorer. Tout se passe comme si le jury regrettait que Ségolène Royal ait redesigné son site Désirs d’avenir suite aux railleries de la communauté Internet.

Première version du site Désirs d'avenir.

Back to the roots

Les Craypion d’or célèbrent le mythe d’un web des origines, en partie perdu, dont il ne resterait que quelques survivances méritant leur place au patrimoine mondial des Internets, ou tout du moins au palmarès des Craypions. Ce web «qu’on aime» et qui nous fait «mourir de rire», c’est le «web vernaculaire» tel qu’il a été défini par Olia Lialina, pionnière du net.art et professeur à la Merz Academie de Stuttgart. Dans un essai visuel publié en ligne en 2005, l’artiste recense quelques unes des figures de cet Internet primitif, essentiellement des années 90, construisant une «culture de la homepage»:

  • Les panneaux “Under construction”, symboles d’un Internet amateur, en perpétuelle construction où la destination la plus commune des clics était une page n’existant pas encore. «Pas à pas, les internautes ont développé des pages plus fonctionnelles et il est devenu moins nécessaire de nous avertir, spécifiquement avec des panneaux routiers, des informations manquantes. Mais ils n’ont pas disparu», écrit Lialina.

© Olia Lialina

  • Les fonds d’écran étoilés, vestiges d’une époque où le web se voyait comme un nouveau territoire. «L’Internet était le futur, il nous emmenait dans de nouvelles dimensions, plus proches d’autres galaxies», selon Lialina.

© Olia Lialina

  • Les sons Midi, ersatz des futurs MP3 qui allaient régner sur l’Internet des années 2000. Leur très faible qualité en a fait des objets du patrimoine commun d’Internet, souvent sans copyright, échangeables à l’infini comme un gif animé. En général utilisés pour “sonoriser” une page web, les fichiers Midi étaient souvent des reprises de grands tubes, comme cette version de Final Countdown exhumée par Olia Lialina.
  • Le message “Welcome to my home page”, marque d’authenticité sur les sites personnels, «slogan du web 1.0» . Selon Lialina, «cela montre qu’une vraie personne a créé le site et non un quelconque département en marketing ou un système de gestion de contenu».

Page personnelle du Turc Mahir Cagri, qui est devenu un phénomène web.

Le carcan du webdesign

Camille Paloque Bergès, enseignante au département informatique l’IUT de Belfort-Montbéliard, a repris et précisé les travaux d’Olia Lialina dans un article en anglais Remediating Internet trivia : Net Art’s lessons in Web folklore .

The title “VernacularWeb” shows an attempt at finding topicality in media language forms specific to the WWW medium – the vernacular being a concept used in linguistics and pointing at languages pertaining to local communities and usually resistant to institutionalization. In terms of vernacularity, localism is key: homepages recreate little homes connected by a sense of group or at best, community. [...] The vernacular Web is expressed in folkloric terms. First, it creates a popular niche in technology use, relying on cheap hosting (free with advertisements or at low-cost) and handling Web design in a dilettante posture (bugs and typos abound, along with the very much used “Website Under Construction” compulsory segment). Popular Webdesign is acknowledged as cultural material consistent in the universe of amateur Webdesign: low-cost, lowbrow productions elaborated in DIY frame logic. Second, it turns self-mediation into collective appropriation of popular topics, relying on the same discursive patterns used over and over again – for instance the expression of self through life tastes and curriculum vitae, the hobbyist expression of fan cultures, etc. Intensive and repetitive use of fixed-forms iconography such as Webpage wallpapers, animated gifs, midi music, shiny buttons, moving arrows, customized Webforms) are other dimensions of a shared iconography on the collective scale. The vernacular Web creates its own traditional frame, but a tradition based on a “bricolage” perspective, picking up and rearranging Web elements from the same toolbox rather than innovating.

Comme les artistes du net.art qu’évoque Camille Paloque Bergès dans son article, la chanteuse M.I.A. a repris les codes du «web vernaculaire» dans un clip paru en 2010, dans une volonté de ré-esthétiser ces objets relégués dans le «goût barbare» dont parlait Pierre Bourdieu.

Cliquer ici pour voir la vidéo.

Mais la meilleure théoricienne du «web vernaculaire» est sans doute Ségolène Royal, dans un discours en septembre 2009 quelques jours après la polémique autour du lancement de son site Désirs d’Avenir: «Je ne veux pas un site comme ça avec des traits. Non, moi, je ne veux pas de ça. Je veux un site qui nous ressemble et pas nous qui ressemblions au site».

Cliquer ici pour voir la vidéo.

Les gestes qu’esquisse Ségolène Royal quand elle évoque les «traits» symbolisent dans l’espace la prise de pouvoir du web institutionnel par le carcan du webdesign. La socialiste fait le lien entre cette évolution esthétique et une confiscation de la parole qui a de quoi surprendre à l’heure du web social: «on cherche à contourner le mur du pouvoir, on cherche à contourner le mur des médias, on cherche à mettre en commun nos intelligences, on cherche à donner de la visibilité à ceux qui ne parlent pas».

Cette «culture de la homepage» a en grande partie disparu de la visibilité médiatique, chassée par la rationalisation opérée par les “experts du web”, «le très très puissant lobby d’Internet» dénoncé par Ségolène Royal. Camille Paloque Bergès situe ce tournant à la fin des années 90:

The production of homepage culture has largely been disregarded as trivial, mostly by the new Web experts, a profession born at the end of the 90’s in the midst of the Internet bubble. Web expertise has based its norms and standards in opposition to Web folklore, considered as messy and useless in terms of design and content production.

Ces “experts” ont fixé les usages et les normes graphiques, aboutissant à l’esthétique épurée du web 2.0 qui se cristallise vers 2004-2005. Les éléments folkloriques du «web vernaculaire» disparaissent au profit des «traits» dénoncés par Ségolène Royal.

La homepage de Flickr, site emblématique de l'esthétique web 2.0 lancé en 2004.

C’est selon cette même logique que MySpace, trésor de créativité populaire grâce à la possibilité de configurer simplement le html de sa page perso, est devenu “ringard” au profit de Facebook, dont le code html des pages n’est pas modifiable par les utilisateurs. Signe de la défiance du site à l’égard de l’esthétique populaire, les gif animés ne s’animent pas sur les walls Facebook.

Bienveillance du LOL sur le web folklorique

Depuis quelques années, on assiste à une forme de revival du «web vernaculaire», porté notamment par la «culture LOL». Cette nouvelle avant-garde du web qui veut voir Internet comme un vaste espace de jeu trouve une alliance objective avec la «culture de la homepage»: comme elle, elle rejette les «experts du web», tournant en ridicule toute forme de rationalisation des pratiques, exaltant en creux la puissance du web «barbare». Les Craypion d’or s’inscrivent dans cette bienveillance presque paternaliste du “LOL” à l’égard du web folklorique: les prix sont remis «sans moquerie mais avec une franche sympathie», indiquent les organisateurs dans leur communiqué de presse. Le créateur de la cérémonie Henry Michel tient à faire la distinction entre «deux types de lauréats»:

Les Craypion distinguent les professionnels qui se prennent au sérieux mais nous font rire, et les amateurs, qui s’affranchissent des règles esthétiques, graphiques et communautaires pour assouvir leur passion du web

La tendresse pour le web folklorique se conjugue donc avec une certaine défiance pour les “professionnels”, comme si les “loleurs” reprochaient à ces «experts» d’avoir tué la créativité populaire de l’Internet des années 90. On y reviendra plus tard. En attendant, comme souvent sur le web, rien ne vaut un lolcat pour résumer une idée.

Le "serious cat", métaphore des "experts" qui ont civilisé le web vernaculaire.

À l’heure où l’utopie du web 2.0 paraît dépassée —ce n’est plus la vidéo amateur Evolution of dance qui domine les charts YouTube comme en 2007 mais des clips de Justin Bieber et de Lady Gaga— les “loleurs” opèrent un retour symbolique vers le web 1.0 vu comme une terre sauvage, dont les Craypion d’or sont le symptôme. Une prise de conscience semble guider ce mouvement: ce ne sont pas dans les lignes épurées de Flickr que se trouve la vérité sociologique de l’Internet, mais plutôt dans les bas-fonds de Google Images et la mise en valeur de ce patrimoine n’est qu’un juste retour des choses. Dès lors, on ne s’étonnera pas que l’élite du “LOL” mondial se retrouve sur 4chan, un forum à l’esthétique pauvre et aux fonctionnalités très limitées.

LOL et mèmes, progénitures hybrides du réseau

Le langage “LOL”, en fait, est un exemple typique de l’Internet aujourd’hui, à la fois vernaculaire et institutionnel. Robert Glenn Howard, professeur de communication et arts à l’université du Wisconsin, directeur du programme Digital Studies, estime que le web participatif (qui se confond assez largement avec le web contemporain), est un inextricable mélange de vernaculaire, de commercial et d’institutionnel :

When “folk” express meaning though new communication technologies, the distinction between folk and mass is, as Dorst suggested, blurred by the vernacular deployment of institutionally produced commercial technologies. In online participatory media, the distinction is further blurred because the content that emerges intermingles vernacular, commercial, and institutional interests. Vanity pages are often placed on commercial servers that mix advertising with the personal content. Most commonly today, this mixed content is found on blogging and social networking sites like Blogger.com, MySpace, and Facebook. Not only do these free hosting services mix commercial content with advertising, but they also place limits on the kinds and forms of content hosted. In this way, these new media forms incorporate both folk and mass cultural content, interests, and agencies.

Situé à l’intersection entre web «barbare» et culture de masse, les “mèmes”, comme Sad Keanu par exemple, reprennent en général du matériau issu des médias et des industries culturelles qu’ils retraduisent en langage web avec des références vernaculaires, issues d’une culture web “pure”. Le folklore 2.0 est en passe de devenir un sous-genre des industries culturelles.

Exemple de Sad Keanu remixé avec une iconographie et une langue typique de la culture 4chan.

Article initialement paru sur Culture Visuelle, Les Internets.

Illustrations: CC gbaku

]]>
http://owni.fr/2010/12/29/les-craypion-d%e2%80%99or-le-mythe-du-web-vernaculaire/feed/ 4
Accroche-toi au pinceau de la contribution, j’enlève l’échelle de la participation http://owni.fr/2010/10/20/accroche-toi-au-pinceau-de-la-contribution-jenleve-lechelle-de-la-participation/ http://owni.fr/2010/10/20/accroche-toi-au-pinceau-de-la-contribution-jenleve-lechelle-de-la-participation/#comments Wed, 20 Oct 2010 16:30:55 +0000 Olivier Ertzscheid http://owni.fr/?p=32131

Prologue

Web “participatif”, “collaboratif”, “contributif”, voilà 3 termes qui, depuis l’avènement du web dit “2.0″ sont souvent indistinctement et abusivement employés.

D’après le trésor de la langue française :

  • la “contribution” peut être définie comme la “part apportée à une œuvre commune“. En l’occurrence, cette œuvre commune sera constituée par le web
  • la “collaboration” est “la participation à l’élaboration d’une œuvre commune

La proximité sémantique des deux termes est évidente, même si dans le contexte du web 2.0 il est possible d’envisager des formes de collaboration non-nécessairement contributives. La collaboration relèverait alors davantage de l’engagement, et la contribution, de l’action.

  • la “consultation” est “l’action de consulter quelque chose, de l’examiner pour y chercher un renseignement, une information, une indication“. Toute dimension d’altruisme ou de construction d’un but ou d’une œuvre commune est ici évacuée au profit de pratiques qui pour être solitaires ou égo-centrées ne sont pas pour autant nécessairement honteuses ou blâmables.
  • La “participation” est “l’action de participer à quelque chose” en – deuxième sens – “manifestant une adhésion, une complicité, une conscience d’ordre intellectuel

L’échelle “social technographics” du cabinet Forrester est un outil précieux qui permet de mieux qualifier les différents modes d’interaction en ligne et d’observer leur évolution au fil du temps.

Les 3 échelles retenues pour les besoins de ce billet datent du 4ème semestre 2006, du 4ème semestre 2009 et, pour la plus récente, du second semestre 2010.

La première correspond au moment où ce nous nommerons le “volet social” du web a réellement commencé à s’installer dans les usages, comme le rappelle Wikipédia dans sa page consacrée au “web 2.0″ :

  • Cette expression utilisée par Dale Dougherty en 2003, diffusée par Tim O’Reilly en 2004 et consolidée en 2005 avec le position paper « What Is Web 2.0 » s’est imposée à partir de 2007.

Voici ces trois échelles

Celle de 2006, correspondant donc aux débuts du web social.

Celle de 2009 …

En enfin la dernière en date, du second trimestre 2010.


Et pour une vision plus synthétique, voici les 3 rassemblées sur la même image (cliquez pour l’agrandir).

Cadre d’analyse

Au regard des définitions données au début de ce billet :

  • Nous définirons comme “contributifs” les comportements en ligne les plus qualifiés (en terme de compétence ou de niveau d’interaction) et s’inscrivant dans une logique de production de contenus originaux.
  • Nous définirons comme “participatifs” les comportements en ligne se résumant à des opérations documentaires apparentées à l’indexation, au commentaire ou à l’amélioration (wiki par exemples) de ressources existantes. La logique à l’oeuvre est alors une logique de post-production
  • Nous définirons comme simplement “consultatifs” les comportements en ligne à seule visée exploratoire, c’est à dire apparentés à l’acte de lecture. La logique à l’œuvre est alors une logique – littérale – de consommation.

Soit le résultat suivant :

Interprétation

Dans le cadre d’une échelle croissante d’interaction enrichies, l’interprétation qui peut-être faite est la suivante.

Nous disposons d’un web à trois niveaux distincts d’interaction :

  • Le web “consultatif” qui regroupe les “joiners” et les “spectators”
  • Le web “participatif” qui regroupe les “collectors” et les “critics”
  • Le web réellement “contributif” qui regroupe les “creators” et les “conversationalists”.

Trois niveaux auquel il convient d’ajouter ceux que cette typologie ne concerne aucunement, c’est à dire les “inactifs”.

Observations générales

(À noter que pour la suite des opérations j’ai, à l’aide de vieux souvenirs de produit en croix, ramenés les pourcentages “relatifs” de l’étude de Forrester en pourcentage “absolus”, c’est à dire que j’ai fait en sorte que la somme des différents segments soit ramenée à 100%)

Les points saillants de l’analyse de ces données croisées sont les suivants :

  • la part des inactifs, dominante aux commencements du web 2.0, s’est drastiquement réduite pour se stabiliser et ne plus concerner qu’environ 7% des internautes.
  • Le web “participatif”, même s’il est en très légère baisse, conserve une part relativement constante, à hauteur d’un peu plus de 20% des usages
  • Le web “consultatif” explose en passant de 34 à plus de 50% des usages et semble stabilisé à cette hauteur.
  • La part du web “contributif” est, proportionnellement, celle qui augmente le plus en étant presque multipliée par 3, passant de 8% en 2006 à plus de 21% en 2010.

Dit autrement

  • de plus en plus d’internautes sont “impliqués”, même si cette implication est, pour moitié, à seule visée consultative (activité de lecture)
  • le web “participatif” qui rassemble les activités documentaires (ou méta-documentaires) d’indexation (collaborative ou non – folksonomies), de commentaire, de vote qualitatif, ou d’écriture collaborative sur des contenus produits par d’autres, est constant depuis 2006, et stabilisé autour de 20%
  • les usages réellement “contributifs” de publication, de mise en ligne de contenus et d’activité “profilaire” ou visant à initier des conversations sur différents types de réseaux sociaux, sont, eux, en nette progression et stabilisés, depuis 2009, à hauteur de 20%
  • au sein même de ces usages réellement contributifs, les “créateurs” (de contenus) sont 40% et les “conversationalistes” 60% (les conversationalistes se caractérisant par leur activité sur les réseaux sociaux, et pouvant à ce titre être considérés comme des “créateurs de conversations”)

Et donc ?

Cette stratification des usages donne à lire à la fois la granularité des médias (réseaux sociaux, blogs et micro-blogs, etc) comme une clé de répartition des niveaux d’interactions, mais elle esquisse également les contours d’une pyramide qui pourra peut-être un jour être considérée comme un invariant de la qualification des activités en ligne, avec une moitié de la population connectée qui se contente d’une simple consultation, des créateurs de valeur ajoutée autour de 20% et des créateurs de contenu au même seuil (20%). Un résultat à lire à la lumière d’une autre analyse quantitative portant sur la nature des coopérations à l’œuvre, en particulier celle des coopérations faibles.

Cette stratification des usages donne aussi à réfléchir sur les leviers qui restent à inventer si l’on veut que le web ne devienne pas uniquement une nouvelle télévision dans laquelle quelques-uns inventent les contenus que quelques autres décideront de produire et que l’ensemble des autres absorbera plus ou moins passivement, c’est à dire si l’on veut maintenir ou augmenter la part réelle des usages contributifs et participatifs. De ce côté-là, c’est peu dire qu’il reste des choses à inventer, et des gens à former :-)

Une nouvelle grammaire documentaire universelle ?

Ce qui me frappe dans tout ça ce sont les 20% de “participatifs”, les “collectors” et les “critics” dont l’activité essentielle est de nature intrinsèquement documentaire. En parallèle des 20% de créateurs. Un monde, celui du web, dans lequel on compte autant de gens qui produisent de contenus que de personnes exerçant sur lesdits contenus une activité de nature documentaire. Un monde à l’équilibre entre ceux qui exercent une autorité (au sens “d’auteur”) et ceux qui “balisent”, qui “labellisent”, ceux qui autorisent nos parcours, qui supportent nos navigations. Pas encore une “intelligence collective” (au sens de Pierre Lévy), mais déjà, à tout le moins, les bases d’une nouvelle grammaire documentaire collective et universelle.

Un monde dans lequel, comme le dit Bernard Stiegler (ici), (presque) tout le monde “produit des méta-langages“, mais sans le savoir, à la manière d’un monsieur Jourdain de la documentation. Un monde qu’il importe (Stiegler encore) “d’accompagner vers sa majorité au sens de Kant“, en lui fournissant “les outils permettant d’instaurer un regard et une distance critique” sur ces méta-discours, sur ces méta-activités documentaires permanentes, rémanentes.

Surtout, un formidable “terrain” scientifique pour la science de l’information.

Relire Barthes (Critique et vérité, Paris, Seuil, 1966) : “Le Moyen-Age, lui, avait établi autour du livre quatre fonctions distinctes : le scriptor (qui recopiait sans rien ajouter), le compilator (qui n’ajoutait jamais du sien), le commentator (qui n’intervenait de lui-même dans le texte recopié que pour le rendre intelligible), et enfin l’auctor (qui donnait ses propres idées en s’appuyant toujours sur d’autres autorités).” Remplacer “le livre” par “le web”, et prendre de temps de mesurer et de qualifier le réagencement de ces énonciations documentaires fortement ou faiblement contributives / participatives / collaboratives.

Attention cependant, il n’est nullement question de sombrer dans l’irénisme. A côté ou plus exactement à l’envers de ce web contributif et participatif, progresse également l’ombre d’un monde que caractérise “la montée hors limite d’une société panoptique, info-totalitaire et crypto-fasciste, à l’échelle mondiale” (Philippe Quéau). Un monde où le partage est légitime, et que légitime un probable “surplus cognitif” (Clay Shirky), mais dans lequel, également, la menace d”une “clôture des idées” (Philippe Quéau encore) n’a jamais été aussi grande.

>> Article initialement publié sur Affordance

>> Illustrations FlickR CC : DailyPic

]]>
http://owni.fr/2010/10/20/accroche-toi-au-pinceau-de-la-contribution-jenleve-lechelle-de-la-participation/feed/ 2
La guerre des néologismes, la défaite du sens http://owni.fr/2010/08/30/la-guerre-des-neologismes-la-defaite-du-sens/ http://owni.fr/2010/08/30/la-guerre-des-neologismes-la-defaite-du-sens/#comments Mon, 30 Aug 2010 15:06:23 +0000 Antoine Dupin http://owni.fr/?p=26522

NÉOLOGISME : un néologisme – du grec νέος : néos (« nouveau ») et λόγος : lógos (« parole ») – est le phénomène de création de nouveaux mots. (Wikipedia)

Web 2.0 , web squared, web 3.0, médias sociaux, podcast, crowdsourcing … que de nouveaux mots pour coller des étiquettes sur le vide abyssal qu’est devenu le grand dictionnaire du web. Que l’on prenne la radio ou la télévision, tout média subit des évolutions technologiques et sociétales au cour son existence. Cependant, Internet est le seul, ou j’ai loupé un wagon, à coller à tout va des terminologies ou des néologismes pour essayer de conceptualiser une évolution, qui plus est sans en chercher le sens premier (d’abord le terme, ensuite la définition). Comme si on appelait télévision 2.0 une télévision couleur en gros. Assez ridicule au final quand on réfléchit bien.

Le plus risible est la guerre que se livrent les gourous du web, ceux-là même qui collent les étiquettes. Ces derniers vont s’empresser de regrouper sous un terme un ensemble plus ou moins cohérent de ce qu’ils prennent comme évolution (technologie, social) , comme pour le web 2.0 par exemple, sans même réfléchir à de réelles définitions. Résultat, c’est guerre ouverte entre les spécialistes « non non ça définit ceci plutôt que cela ». La finalité de cette guerre, ou plutôt son objectif ? Vendre. Vendre du concept, vendre du produit, vendre des journaux, se faire connaître, rentrer dans le panthéons des gens qui font des néologismes et qui sont inscrit sur Wikipédia, sorte de Guiness du record du mot ayant le moins de sens.

Aujourd’hui, l’entreprise qui n’est pas « social media » est « has been ». Comment pourrait-on vendre un concept sans en apporter un terme qui claque ? Imaginez le communiquant proposant au PDG de réaliser une campagne internet. Ça sonne mieux de réaliser une campagne 2.0 non ? Vous avez compris, loin des aspirations de l’internaute moyen (qui au final s’en fiche complétement), la guerre des néologismes n’a de sens que parce qu’elle va permettre de définir un environnement sur lequel on va pouvoir communiquer ou débattre pour affirmer son expertise. Ce ne sont pas les informaticiens qui vont donner ce sens, ou même qui définissent, ce ne sont pas les sociologues, mais bien les marketeux, ou les journalistes. Il faut vendre du concept, point barre. Le web n’est qu’un produit, aux communicants de lui trouver un terme sexy ne datant pas de l’âge de pierre. Rappelez vous les Optic 2000, Sport 2000 et consort quand 2000 était encore associé au futur donc à quelque chose de « in ». Dites-vous qu’Internet, on a compris ce que c’était, il était de vendre du concept, quelque chose de plus alléchant. Quelque chose de social media …

Le néologisme brut : les journalistes s’éclatent aux deux sens du terme

Il y a quelque chose d’étonnant avec Internet et son absolue envie d’étiqueter des ensembles. Si l’on devait faire un parallèle avec un autre média, comme la télévision ou la radio, on constaterait qu’il n’y que sur la toile qu’il a fallu coller des néologismes.

Sur le petit écran, lorsque la couleur fait son apparition, lorsque le numérique débarque, lorsque les programmes deviennent interactifs, lorsque la poubelle envahit les ondes, on ne va pas inventer de nouvelles terminologies pour tenter de décrypter le tout. On parle de télévision couleur, de télévision numérique, de télé-réalité… à aucun moment on ne parle de télévision 2.0, de télévision squared… Pour expliquer des phénomènes concrets qui ne sont que des évolutions et non des révolutions au sens propre, on leur colle un attribut simple couplé à l’évolution qui finit par disparaitre (télévision + évolution). L’avénement du petit écran dans les foyers, avec un taux de plus en plus élevé tant en équipement qu’en temps passé devant ne donnera jamais envie aux marketeux de dire « bon on est entré dans la télé 3.0, avec des mutations sociales et technologiques ». Non, on a laissé passer le courant sous la bannière de la télévision toute simple et l’on a créé des contenus interactifs en conséquence. En ce sens, on devrait plus parler d’Internet social, tout simplement, puis dire aujourd’hui Internet, depuis le temps que l’on est dedans. L’Internet des débuts serait tout simple l’Internet statique, au même titre que la télé en noir et blanc, la transition entre statique et sociale serait l’Internet dynamique. Pas besoin d’aller plus loin. Mais ça fait pas genre on est d’accord.

Alors pourquoi devrions nous créer des néologismes à tout va sur Internet ? Comme je le disais, pour créer du concept dans une finalité de vente et d’expertise.

Par exemple, podcast est un néologisme créé en 2004 par Ben Hammersley, journaliste au Guardian (pod ramenant aux fameux iPod de chez Apple). Alors qu’est ce qu’un podcast ? Tout simplement un flux RSS audio ou vidéo, ou plus communément, un RSS 2, rien de neuf mais bien une évolution. Le RSS c’est ces fils de syndication de contenus qui vont permettre de suivre un blog par exemple  (inventés en 99 au passage). En fait, la première technologie RSS n’embarquait que les textes. Le RSS 2 les contenus vidéo ou audio. C’est incroyable de vouloir impérativement coller un néologisme, non, sur une si petite évolution ? Oui je sais, ça fait mieux, ça vend mieux. « T’écoute quoi là ? Bah un RSS 2… » Si vous allez sur un blog, par exemple, vous pourrez soit vous abonner au flux RSS soit au podcast… alors qu’ils sont exactement la même chose, l’un était audio ou vidéo et l’autre textuel. On devrait plus parler de flux RSS audio si l’on voulait bien le différencier, de là à créer un néologisme, il y a une marge. Bon, on a eu chaud, parce que l’auteur proposait aussi… Guerilla media, qui n’est pas sans rappeler le terme guerilla marketing, donc qui rejoint ce que j’évoquais avant entre la relation forte du néologisme et de son application en marketing.

Autre exemple, le crowdsourcing, ou approvisionnement par la foule. Inventé en 2006 par Jeff Howke, journaliste à Wire, cela signifie tout simplement que des gens vont participer à la réalisation d’un projet commun. Wikipedia définit ce terme : « le crowdsourcing consiste à utiliser la créativité, l’intelligence et le savoir-faire d’un grand nombre. » Comme on n’est pas à une dérive près, d’autres néologismes ont poussé, comme le blogsourcing ou le crowdfunding. À partir d’un néologisme, on va donc pouvoir segmenter un tout en ensembles. Le blog est un néologisme entre web et log (journal de bord en anglais) pour définir une nouvelle forme de site web. Cela ne suffisait pas, il fallait segmenter. Alors on a créer les vlogs, pour définir les blogs vidéos. Un peu ridicule à mon sens… mais bon passons.

Urbain II faisait déjà dans le crowdsourcing.

Car ces nouveaux concepts dont s’extasient les journalistes existent depuis longtemps. Dès lors que nous sommes organisés en sociétés, en tribus, nous créons du lien social. Les logiques que l’on retrouve sur Internet ont comme origines par conséquent l’aube de l’humanité, seule la technologie change ou améliore les processus. On peut se demander par exemple si les croisades ne sont pas un bel exemple de crowdsourcing. Lorsqu’en 1095, au concile de Clermont, le pape Urbain II demande aux pèlerins de partir en croisades, il fait appelle aux fidèles pour réaliser une action commune. N’est-on pas dans les mêmes logiques lorsque Facebook demande à ses utilisateurs de procéder à des traductions ? Si la finalité n’est pas la même, on s’adresse à un ensemble d’individus de toutes classes ou catégories appartenant à une communauté (chrétiens, facebookeurs) dans l’objectif de réaliser une action commune (prise de Jérusalem, traduction). Ces procédés existent depuis la nuit des temps, mais aujourd’hui il faut absolument que l’on leur colle une étiquette, avec un mot qui claque, crowdsourcing.

Enfin, on ne saurait parler de tous les néologismes tentant de naître mais qui au final ne prennent pas. Je n’ai pas d’exemple concret, mais en cherchant bien je pense que l’on peut en trouver masse.

Évidemment, certains autres ont du sens, car définissent quelque chose d’innovant lié à la technologie, comme la folksonomie reposant sur l’indexation et l’organisation de contenus par des mots clés (pour faire court)… Là je vois mal les chevaliers du temple définir leurs embarcations avec des petits bouts de papiers sur lesquels ils auraient inscrit des mots clés.

Web 1.0, web 1.5, web 2.0, web squared, web 3.0, médias sociaux et tous leurs potes

Bien, après les quelques néologismes évoqués plus haut, leur finalité, passons aux évolutions du web et notamment à la mise en place de définitions de phases complétement absurdes vous le verrez.

La terminologie web 2.0 a été inventé en 2003 par Dale Dougherty du cabinet O’Reilley, car il sentait qu’il se passait quelque chose, qu’on arrivait dans une nouvelle ère, un nouveau web. Perdu ou presque.

Très rapidement, après la naissance de ce terme,  il a fallu lui donné du sens, ça faisait tellement bien « 2.0 ». Car c’est bien un mot, mais c’est mieux avec une définition.

Ainsi, au tout début du web 2.0, en 2005, Fred Cavazza pond un article sur cette nouvelle « chose » pour en tirer cette conclusion qui restera célèbre :

Le web 2.0 c’est… enfin ça veut dire… ça… heu… ça désigne… bon OK je cale.

InternetActu, toujours en 2005 revient sur la simplicité de définir le web 2.0 par cette citation de Richard Marcus :

« Le web 2.0 est social, est ouvert (ou il le devrait), il vous laisse le contrôle de vos données, il mélange le global au local. Le web 2.0 correspond à de nouvelles interfaces – de nouvelles manières de rechercher et d’accéder au contenu. Le web 2.0 est une plateforme – et pas seulement pour que les développeurs créent des applications comme Gmail ou Flickr. Le web 2.0 est une plateforme prête à recevoir les éducateurs, les médias, la politique, les communautés, pour pratiquement chacun en fait !
[...] Le web 2.0 c’est tout cela et ne laissez personne vous dire que c’est l’une ou l’autre de ces définitions. Le web 2.0 parle des personnes, quand le web descend à eux.
»

Comme le rappelle le magazine dans son article, tout le monde voit midi à sa porte comme l’explique Pierre Mounier  : « On voit bien qu’il s’agit d’un même phénomène, mais aux multiples dimensions. Certains insistent sur la dimension technique, d’autre sur les pratiques éditoriales, d’autre encore sur la dimension sociologique. »

Il semble s’être passé quelque chose, un truc dément que tout le monde a pris pour une évolution, une révolution. Pourtant, comme le souligne Fred Cavazza toujours dans le même article, « En 10 ans, que s’est-il passé ? Pas grand chose ! Tout au plus les technologies sur lesquelles est fondé l’Internet (HTML, JS, GIF…) ont-elles légèrement évolué vers un cadre mieux défini, plus ouvert et plus standard (XHTML, CSS, DOM, PNG…). »

Bref, il fallait bien que quelqu’un dise que le web du début, c’était pas pareil que le web d’aujourd’hui (fortiche le gars). Et il fallait en trouver la raison. Alors on a schématisé à tout va, car personne n’arrivait à s’accorder sur le sens, pas même les inventeurs, et pour cela, on s’est appuyé sur une chose simple, définir le web 1.0 et le comparer. Une image vaut mieux que de longs discours. Ce qui donna lieu à de jolis schémas de ce type :

En gros, le web 2.0 c’est l’internaute qui prend le pouvoir, pourrait-on vulgariser. Pourtant, au travers des forums, l’internaute avait déjà la parole. 1996,  il existait déjà des réseaux sociaux (classmates) ou des wikis (1995) voir des blogs. Alors n’est ce pas plutôt plutôt l’accès massif au haut débit qui va bouleverser nos mentalités ? À notre taux d’équipement en ordinateurs ? À notre taux d’équipement en appareils numériques ?

Mais forcément, quand on avance un peu à l’aveuglette, comme pour un scénariste, il y a des failles. Il a fallu expliquer certains petits trucs qui n’allaient pas, qui ne collaient pas au schéma. Connaissez-vous les CMS ? Ce sont des sites Internet facilement administrables, qui ont réduit la notion de webmaster à celle de concepteur rédacteur (tout le monde n’ayant pas de bagage technique pouvant remplir un site). Ils sont arrivés juste avant le web 2.0. Savez-vous qu’ils correspondent à ce que l’on nomme web 1.5 (bah ouais, ils étaient dynamiques et pas socials, donc ni 1.0 ni 2.0).

D’après IDFR voici leur définition :

Ces sites Internet sont des sites entièrement dynamiques, dans le sens où le contenu du site est dans une base de données, totalement administrable par un webmaster sans notions HTML. Ces sites s’appuient donc sur les outils de gestion de contenu, aujourd’hui largement diffusés. Mais le fonctionnement général reste identique au web 1.0 : le webmaster du site (ou tout autre personne de la société qui édite le site) ajoute, modifie et supprime les contenus.

On crée le terme web 2.0 en disant « avant c’était statique et tout et tout » pour finalement se rendre compte que les CMS existaient. Il faut dès lors trouver un autre terme, alors on va appeler cela 1.5. N’est-ce pas ridicule ? Ce serait comme si des historiens disaient : « bon aujourd’hui on est dans une société 2.0, la préhistoire c’est méga 1.0 vu qu’on n’avait pas l’écriture. Par contre la révolution Gutenberg, c’est 1.5 vu qu’on va industrialiser les process d’écriture. Ah oui et les papyrus, ça doit être du 1.3 mais faudra vérifier, pas sûr que y avait que les scribes qui écrivaient ».

Pour définir une période, il faut en amont analyser les évolutions pour pouvoir exprimer et définir en quoi la nouvelle période est justement une révolution. Dans le cadre du web 2.0, la seule chose qui a été faite fut de dire « ça bouge, il se passe un truc on va appeler 2.0 ». On ne cherche pas plus loin, c’est l’euphorie générale avec ceux qui disent  « mais si le web 2.0 c’est extraordinaire, c’est un web social, avec des communautés et tout et tout » et ceux qui suivent sans vraiment savoir pourquoi. Pourtant, en 2007, le terme n’a plus la même saveur, car usé jusqu’à la moelle il faut innover. Alors naquirent les  « médias sociaux » qui en jetaient plus quand même. Même combat, impossible à dire vraiment ce qu’il en est, mais les étiquettes vous savez. Les définitions de ce terme sont longuement analysées par Fred Cavazza qui en donne sa propre version : « Les médias sociaux désignent un ensemble de services permettant de développer des conversations et des interactions sociales sur Internet ou en situation de mobilité. »

Ça me rappelle mon ancien appartement. Le bâtiment tombait en ruine alors quand une poutre s’est détachée du plafond et a failli décapiter mon voisin, les propriétaires ont décidé de repeindre la cage d’escalier. Le terme web 2.0 tombait en déconfiture, alors plutôt que de lui donner un sens, de le définir, on a modifié son appellation sans réellement en donner de sens, principe du « je change la forme, pas le fond ».

Pour s’en rendre compte, analysons ces schémas. Ici une présentation des plateformes web 2.0 :

Attention, maintenant panorama des médias sociaux… hum oui je sais c’est assez ressemblant :

On est plus dans une guerre sémiologique dont on se fiche du sens. On peut même aller plus loin, en plongeant dans les plateformes en elles-même.

Qu’est qu’un réseau social (sur Internet ?) Comme le rappelle Émilie Ogez :

Catégorie de sites web avec des profils, un commentaire public du profil semi-persistant et un réseau social publiquement articulé et visitable, montré en rapport au profil.

Dans son article, elle note que cette définition s’applique également à YouTube, Flickr, Twitter… L’ensemble de ces plateformes ayant un profil connecté à une communauté, elles sont par conséquent des réseaux sociaux. Ce qui est dérangeant dans l’affaire, c’est que pour l’internaute lambda, un réseau social, c’est Facebook, MySpace ou Orkut. En fait, ils sont des anonymes dans la grande famille des réseaux sociaux, je m’explique.

YouTube est ce que l’on nomme une plateforme d’hébergement vidéo, Flickr de partage photo, Twitter de microblogging… Facebook serait plus alors un « social linker », dont le principe est justement d’affiner ce lien social, reposant plus sur la communauté et ses interactions que sur la valorisation du contenu (Flickr photo, YouTube vidéo, Twitter information, Facebook lien social ?). Cependant, on le nomme réseau social. Pour faire une analogie, ce serait comme si on parlait des chiens, des chats et que l’on ne s’appellerait plus « humains » mais «mammifères ». Étrange non ?

Au même titre, si les CMS permettent à tout un chacun de produire du contenu en ajoutant modifiant ou supprimant des données numériques, alors Facebook est également un CMS par définition. Vous voyez le truc ? En gros, les barrières sont tellement minces qu’à vouloir absolument tout définir, on en vient à altérer le sens et à ne plus rien comprendre quoi est quoi. Il devient de plus en plus complexe d’expliquer les choses tellement on a voulu les définir par leur nom, les catégoriser dans des cases précises. C’est Internet, c’est tout.

Car le web social, et toutes les technologies qui ont fait naître le mot web 2.0 et tous ces dérivés ne datent pas de 2004. Voici un bref historique des sites web 2.0 :

=> 1995 s’ouvrait Classmates premier réseau social de l’histoire

=> 25 mars 1995 un certain Ward Cunningham met en place le premier wiki

=> milieu des années 90, de nombreux sites s’apparentant à des blogs émergents

=> 1999 ouverture des plateformes de blog Live Journal et Blogger permettant à tout un chacun de disposer de son propre blog

=> novembre 1997 ouverture de Company of Friends, premier réseau social d’affaires

=> 1999 ouverture de Ofoto, premier site de partage de photographies

=> 1999 création par Netscape du flux RSS

La plus grande majorité des innovations technologiques et sociales étaient déjà présentes avant même que commence l’avènement du web 2.0 que l’on situe en 2000 (et on ne parle pas des forums, news groups… qui sont complétement dans des logiques communautaires). Donc pourquoi parler de web 2.0 presque 10 ans plus tard pour expliquer une réalité présente ? Pourquoi créer des néologismes à tout va pour définir seulement des évolutions ? Un peu comme si on disait que la théière d’aujourd’hui parce qu’elle a un système de filtre particulier est une chose nouvelle, faisant abstraction qu’elle existe depuis longtemps.

Prévoir le futur ? MADAME IRMA ?

Toujours plus dans le ridicule. Après avoir définit le présent, puis le passé,  maintenant, l’on tente de prévoir le futur en utilisant des terminologies comme web squared ou web 3.0… mais toujours dans des limites floues… histoire de vendre et de débattre sans trop se mouiller. Attention, accrochez-vous.

Alors le web squared c’est quoi ?

Voici une définition des nouvelles technologies agissant dans ce web transitoire chez Ideose :

  • « Les différentes innovations récentes dans le web marquent une évolution suffisante pour ne plus parler de web 2.0 mais elles ne constituent pas une rupture demandant d’être illustrée par un nouveau numéro de version. Le web squared marque une transition.
  • Voici la liste de ces innovations web avec un court descriptif pour chacune :
  • Implied data (données implicites) : la surabondance d’informations sur le Web est une des critiques souvent entendues en regard du temps quotidien disponible de chacun. Elle est justifiée si le traitement des informations se fait de manière manuelle. Or, des outils et logiciels sont aujourd’hui capables de marquer une donnée avec une métadonnée autorisant ainsi son traitement automatique. L’exemple des photos numériques (les données) auxquelles l’appareil ajoute automatiquement des informations sur le type d’appareil, la date et le positionnement GPS (les métadonnées) illustre bien le fonctionnement et l’intérêt de cette innovation. En effet, ces métadonnées permettront aux moteurs de recherche de trier automatiquement les photos publiées sur le web en fonction d’un paramètre de recherche comme le lieu par exemple. Une autre application des métadonnées est par exemple la visualisation de tendances sur une carte (exemple : toutes les photos prises en Europe par tel ou tel appareil). Par ailleurs, les systèmes auto-apprenants permettent ensuite de croiser ces métadonnées avec d’autres paramètres comme par exemple : reconnaître le visage d’une personne sur les photos prises à Paris à telle date.
  • Information shadow (informations cachées) : chaque donnée (un objet, une personne, un document, un lieu…) est rattachée à d’autres données. Si vous prenez par exemple en photo une personne ou un lieu, l’image créée est une donnée qui est en fait rattachée à toutes les données (d’autres photos, des articles…) concernant cette personne ou ce lieu. Avec des logiciels adaptés et un accès aux données via le web, ces informations « cachées » peuvent apparaître et être donc utilisées (les applications de réalité augmentée utilisent ce principe).
  • Real time web (web temps réel) : le « web temps réel » est l’ensemble des informations envoyées sur le web par des personnes de manière instantanée et publique. Ces informations sont – à la fois et en temps réel – envoyées à un groupe de destinataires, publiées sur le web et analysables par des logiciels de traitement de l’information. Le service le plus connu dans ce domaine est le service de microblogging Twitter qui permet à chacun de diffuser sur le web des messages courts. Les conséquences de cette définition sont que le « web temps réel » crée à la fois une nouvelle forme de communication (échange instantané, précis et publique) mais aussi une nouvelle manière d’analyser les tendances sociales (capacité d’agréger toutes ces informations publiques par des analyses humaines et logicielles).
  • Data ecosystems (bases de données interconnectées) : dans ce web des données, l’ajout de valeur va venir de l’interconnexion des bases de données permettant ainsi d’accéder de manière transversale à tous les domaines se rapportant à une donnée. Par exemple, au mot ‘Paris’, on pourra attacher aussi bien les données géographiques, culturelles, historiques que les données cinématographiques, touristiques, etc. Chaque donnée devient ainsi une porte d’entrée à plusieurs bases de données. »

Chaud chaud. Pour rappel Twitter s’est crée en… 2006.  Donc 2004 web 2.0 2006 web squared… 2005 web 3.0 …… ouch.

Oui je sais, ça avance vite dans le monde du web… ou il y a un énorme décalage je ne sais pas trop. Toujours est-il que voilà ce qu’est le web squared en surface.

Des schémas pour informer les internautes curieux commencent également à pointer leur nez, expliquant que le web squared c’est comme le web 2.0, un fourre-tout. Même notre copain Nabaztag (vous savez cette immonde peluche qui vous dit quand vous recevez un mail) est squared… pffiou allez comprendre vous…

Oui je sais, c’est à se pendre, imaginez quand on doit expliquer ça aux gens, aux clients comme à notre famille. Twitter, dans le web squared, lui qui faisait partie des médias sociaux… Car le web squared étant une phase de transition, il va forcément prendre du web 2.0 et du web 3.0, même si selon certains spécialistes… les web squared arriverait après le web 3.0… Guerre stupide au demeurant à vouloir tout conceptualiser, on finit par en perdre son latin.

Des petits tableaux voient donc le jour comme pour le web 2.0 parce que expliquer quelque chose avec des mots est trop compliqué quand ce n’est que du concept. On met web 1.0 web 2.0 et web squared pour que les gens comprennent le cheminement. Demain on se rendra compte que certains sites n’entraient pas dans toutes les cases et il faudra probablement créer le web squared 1.5… arg !

De même qu’est ce que le web 3.0 ? Bah il y a des malins qui font des pyramides de Maslow en web 2.0 et web 3.0, mais il y a encore pire, c’est les définitions (c’est pour ça que j’ai mis des schémas avant sinon vous seriez mort, cerveau explosé).

Attention, ça va faire mal aux cheveux :

D’après Wikipédia : « désigner ce qui, en 2008-2009, constitue l’étape à venir du développement du WWW . » Donc on serait déjà dedans ? Fred Cavazza, comme de nombreux spécialistes, nous parle de web sémantique (en 2006 soit un an après le web 2.0), qui correspond un peu au web squared pour d’autres… bref beau bordel en vue.

Comme le rappelle Vincent Abry, l’une des définitions évoquée en 2007 était : « la création de contenu de grande qualité et de services produits par des individus doués utilisant la technologie de web 2.0 comme une plateforme. » Ce à quoi aurait répondu O’Rilley, (les inventeurs du terme 2.0 qui nous l’avons vu évoquait des choses déjà existantes lors de l’étiquetage du concept) : « le contenu du web modéré par d’autres personnes cela n’est pas nouveau. »… Oui, je sais, c’est très très capillotracté et cela vous donne une certaine idée de la guerre des gourous du web, une guerre du sens basé sur le non-sens et l’absurde. Donc le web 3.0, on en parle, certains disent que l’on est dedans, d’autres disent que non… au final, on s’en fout complètement, voyons arriver l’avenir sans chercher à le nommer, soyons intelligents pour bien nous positionner en terme de communicant. Nous somme dans le web, point barre.

Conclusion

Les néologismes du web sont comme un arbre sans racines qui produirait des fruits pourris. Ils répondent plus à une logique de communicant qu’à une réelle révolution. S’il y a évidemment des évolutions technologiques, celles-ci ne révolutionnent en aucun cas Internet, ce sont plutôt les mentalités, l’internaute 2.0 si l’on pourrait dire.

L’arrivée de réseaux sociaux comme YouTube, Flickr, MySpace, en masse, correspond à des aspirations d’internautes, ceux-ci devenant de plus en plus équipés en appareils, de plus connectés avec des débits de plus en plus gros. Il est normal qu’ils veuillent à leur tour produire des contenus, ce qui jusqu’alors n’était possible que par des connaissances techniques. Alors il y a eut les CMS, les sites persos, puis des réseaux sociaux… Et puis les grands gourous du web ont dit « allez, c’est du web 2.0 là ma poule ». Après, il a fallu trouver une définition à tout cela, l’ancrer dans le temps.

On a commencé à se dire que avant c’était web 1.0, ce qui n’a pas de sens, convenons-en. Que ce web 1.0 était tout statique avec personne n’intervenant. On a alors pris en compte le fait que les CMS existaient. Et par conséquent que le web 2.0 ce n’était pas statique vs dynamique, et l’on a créé le web 1.5 pour tenter de rattacher les wagons pour créer une apparente cohérence. Les forums, news groups ou encore tchats s’ils créent du lien social, s’ils sont repris sur certaines plateformes 2.0 sont 1.0 et puis c’est tout est ainsi martelé.

Il a fallu donner une certaine date aux médias sociaux, pour mieux clarifier les choses, et l’on a dit que ce serait début 2000, faisant l’impasse sur les prototypes des années 90. Mais les gourous ne souhaitaient pas s’arrêter là. Ils venaient de coller des néologismes sur le passé et sur le présent, il fallait maintenant définir le futur. Ce sera le web 3.0 avec une période transitoire que l’on nommera web squared… allez chercher la logique vous. Et puis comme les web 1.0 et consort ne faisaient plus bien car trop associés à une zone floue, alors on a créé le terme « médias sociaux » pour faire un fourre-tout. Cela parle bien médias sociaux, c’est un média avec du social dedans, les gens comprendront… hum pas sûr.

Perdus dans le firmament des définitions, les internautes n’en ont que faire, cette petite gueguerre des terminologies n’intéresse que les marketeux, et ce sont eux qui l’ont créée pour vendre du rêve au final. « Attendez monsieur le PDG, aujourd’hui je vous fais une campagne social média et on ancre le tout dans le temps réel, ce qui nous permettra de glissé vers le web squared, lui-même nous permettant un positionnement dans le futur sur les moteurs sémantiques ou web 3.0. » Vas-y que je t’embrouille. L’internaute, il a son réseau social Facebook, ses vidéos YouTube et si demain on lui demande de taguer ses recherches, il le fera sans se demander « ouah, trop la classe je suis rentrer dans le web 3.0 »…

Ces préoccupations qui enflamment Internet sont tout simplement ridicules. Le web 2.0 existe-t-il réellement ? Les professionnels se cassent les dents sur ces concepts (car il faut aussi tenter de les comprendre dans notre métier). Certains semblent y arriver… L’internaute, lui, ça ne le touche pas. Internet c’est Facebook et Google. Après, web 2.0, 3.0, il s’en moque, il ne comprendra pas et ne cherchera pas à comprendre.

En fait, le web 2.0 et tous ces néologismes, comme le rappel Eric Schmidt de chez Google n’ont réellement qu’une vocation : marketing. Pas étonnant qu’ils soient du fait de communicants ou de journalistes.

Qu’en pensez vous ?

Billet initialement publié sur le blog d’Antoine Dupin

Image de une CC Flickr ilgiovaneWalter (Sobchak)

]]>
http://owni.fr/2010/08/30/la-guerre-des-neologismes-la-defaite-du-sens/feed/ 11
Le Web 2.0 est mort (et n’a jamais existé) http://owni.fr/2010/07/14/le-web-2-0-est-mort-et-na-jamais-existe/ http://owni.fr/2010/07/14/le-web-2-0-est-mort-et-na-jamais-existe/#comments Wed, 14 Jul 2010 11:40:27 +0000 Guillaume-Nicolas Meyer http://owni.fr/?p=21832

C’est dans les bacs, les spécialistes le savent… Le web 2.0 est mort ou en passe de l’être… Pour autant, a t-il jamais existé ?

On nous rabâche les oreilles depuis 2005 de ce web 2.0 et il y a toujours autant de gens qui disent n’importe quoi. « Oui, le web 2.0 c’est les nouvelles technologies ! »

Faux ! Les technologies n’ont pas évoluées, c’est juste leur usage qui a changé. Ce qui fait que bien vite des experts se sont posé la question suivante :

Phénomène réel reposant sur un changement technologique et une rupture d’échelle liée la croissance du nombre d’utilisateurs ou récupération marketing de technologies anciennes rafraichies par un nouvel engouement public ?

Or, les premiers à nous en parler, comme Fred Cavazza conclut aujourd’hui :

Oui il y a bien eu des grands tournants mais les fondamentaux de l’internet de 2010 étaient déjà présents en 2000.

Or donc, le web a évolué, oui, et il va continuer à le faire. Mais le web, c’est comme un individu : vous n’êtes pas Raymond 72.0, vous êtes Raymond.  Même si Raymond est né (1.0), qu’il a appris à manger (2.0), à marcher (3.0), à parler (4.0), à lire (5.0)…. et à re-porter des couches à un âge avancé (Raymond 71.0)…. c’est toujours Raymond.

Pour le web, c’est pareil. Les nouveaux usages, le nombre impressionnant d’utilisateurs, les interfaces graphiques de plus en plus riches, toutes ces évolutions ont profondément transformé notre écosystème médiatique et notre rapport à l’information.

Prenons le cas de Facebook ou de Twitter. Techniquement, il n’y a rien de nouveau, il s’agit de page personnalisée accessible par login et mot de passe qui affiche du texte et des liens… Fondamentalement, c’est le web d’il y a vingt ans.

Si on fait le parallèle avec un individu, le web sort de son adolescence. Après s’être cherché pendant des années (les services les plus innovants et à la croissance exponentielle n’ont pas de business model), le web décide enfin de choisir une orientation. A la question « qu’est-ce que tu feras quand tu seras grand ? », le web répond aujourd’hui « je serai social ! » .

C’est pour cela qu’explosent de nouvelles professions comme « community manager », consultant en e-influence, gestionnaire de e-reputation, etc… Les marques l’ont bien compris la e-reputation a intégré toute les stratégies de Risk Management et le crowdsourcing n’est plus un mot dont les cadres recherchent le sens (enfin normalement).

Or donc, je suis ravi d’annoncer que le web 2.0 est mort, fini l’adolescence. Il va enfin devenir adulte. J’espère que son âge de raison lui permettra d’offrir les grands mythes de sa conception à l’humanité :

  • un accès aux savoirs pour tous,
  • des échanges planétaires au delà des langues (le fameux web de Babel),
  • la démos-cratie participative (intelligence collective et plus manipulation de masse).

Ce qui devrait passer par :

  • la refonte complète du réseau Internet qui a plus de 35 ans,
  • la mutation des tag cloud et folksonomy en liens sémantiques,
  • la disparition des agrégateurs au profit de filtres personnalisés et éthiques,
  • la réintroduction de gatekeepers pour éviter, prévenir ou amenuiser les phénomènes de contagion virale et de manipulation des masses,
  • un réinvestissement de l’information (ce qui est important est le message, pas ses métadonnées, méta-informations, tags, modes d’indexation…).

Sources :

__

Billet originellement publié sur le blog de Guillaume-Nicolas Meyer, sous le titre “Le web 2.0 est mort, fini l’adolescence“.

Crédits Photo CC Flickr : Inju.

]]>
http://owni.fr/2010/07/14/le-web-2-0-est-mort-et-na-jamais-existe/feed/ 16
Lady Gaga, un point zéro http://owni.fr/2010/06/03/lady-gaga-un-point-zero/ http://owni.fr/2010/06/03/lady-gaga-un-point-zero/#comments Thu, 03 Jun 2010 10:57:21 +0000 Boumbox http://owni.fr/?p=17407 J’ai lu cet article sur Schizodoxe l’autre jour, parce qu’il parlait de Lady Gaga et d’immortalité 2.0 et que j’espérais que mon idée fumeuse d’immortalité pour tous avait peut-être trouvé un repreneur. Au lieu de ça, il s’agissait d’un article bon esprit mais plutôt à côté de la plaque, écrit en réaction au papier de Fabrice Epelboin sur Gaga  (“Michael Jackson 2.0″).

Je vous résume : Fabrice s’est penché sur Gaga au moment du ramdam autour du clip de Telephone et, parce qu’il écrit pour ReadWriteWeb, il a analysé en profondeur la stratégie de communication de miss Gaga sur l’interweb et en conclut que Gaga est un pur phénomène web totalement nouveau. Dahlia de Schizodoxe a embrayé, se penchant non pas sur le marketing mais sur tout le concept Lady Gaga pour en tirer les mêmes conclusions.

Moi, j’ai été sur la fanpage de Coca Cola et j’ai vu cinq millions et demi de fans. Je n’en ai pas conclu que le Coca était un phénomène du business 2.0, un truc totalement XXIème siècle qui allait changer la façon qu’on a de consommer du soda. J’en ai juste déduit que les gens aiment le coca.

Lady gaga c’est du 1.0 des familles, avec Gaga et ses équipes tout en haut et les fans en bas. Alors attention les blogueurs, si vous dites qu’un truc est “2.0″ dès qu’il marche, même s’il n’a rien de social, que sa communication est basée sur un vieux modèle du haut vers le bas, que ses fans sont en admiration muette devant un phénomène auquel ils ne contribuent pas, vous allez tout foutre en l’air.

Les gens avec l’argent vont se rendre compte que toutes nos conneries de web participatif c’est du gros pipeau et on ne va plus pouvoir leur soutirer leur argent.

> Article initialement publié sur Boumbox

> Illustration CC Flickr par kitinete-de-apolo

]]>
http://owni.fr/2010/06/03/lady-gaga-un-point-zero/feed/ 9
Quand Wikipédia fait la Polis du droit d’auteur http://owni.fr/2010/01/03/quand-wikipedia-fait-la-polis-du-droit-dauteur/ http://owni.fr/2010/01/03/quand-wikipedia-fait-la-polis-du-droit-dauteur/#comments Sun, 03 Jan 2010 02:44:17 +0000 Admin http://owni.fr/?p=6655 Il y a quelques jours, un ami attirait mon attention sur le fait quelque peu incongru que l’article Open source de Wikipédia était soupçonné… d’enfreindre un droit d’auteur !

En creusant un peu, on découvre d’autres cas similaires (comme celui-ci – parfaitement de saison ! – qui a été résolu cette semaine) et plus largement, il est très intéressant de voir comment la communauté des wikipédiens s’est organisée et donnée des règles pour trouver des solutions aux problèmes des infractions au droit d’auteur, désignée par le terme de “copyvio” (mot valise dérivé de copyright et violation – voyez le wiktionnaire). C’est un exemple frappant de la manière dont une règle de droit fixée par la loi est “intériorisé” par une communauté d’utilisateurs et intégrée aux rouages de son fonctionnement (et à mon avis, un vrai sujet d’étude pour la sociologie du droit).

La question du plagiat dans Wikipédia peut être sensible et polémique. Nombreuses sont les accusations de pillage lancées à l’encontre de l’encyclopédie collaborative, parfois très virulentes (comme ici ou ). Ce n’est pas sur ce terrain que je souhaite me placer, mais je voudrais plutôt tenter de décrire ces mécanismes de régulation et relever quelques cas qui m’ont paru plus instructifs quant à la façon dont le droit d’auteur est “appliqué” à l’intérieur même du microcosme juridique que constitue Wikipédia.

Comprendre ces mécanismes est certainement une excellente manière de se débarrasser des images d’Epinal qui trop souvent s’attachent à l’encyclopédie. Wikipédia n’est pas un espace de non droit, bien au contraire. Son statut juridique particulier découlant du jeu des licences libres (GFDL et Creative Commons) conditionne complètement son organisation et son fonctionnement. Les réponses apportées au problème du Copyvio manifestent la nécessité pour ce système juridique autonome de s’inscrire dans le cadre légal qui l’englobe et dont il ne saurait s’abstraire.

Il existe de ce fait un véritable “système interne” d’application du droit dans Wikipédia, avec ses propres codes, sa doctrine, presque sa jurisprudence, fonctionnant à côté du système judiciaire institutionnel et j’y vois dans une certaine mesure une forme de “Polis” du droit d’auteur, réponse communautaire à un défi juridique que ne pourrait pas relever à eux seuls les moyens de “police” classique.

De l’importance du copyvio pour Wikipédia

Wikipédia est avant tout une communauté rassemblée autour de 5 grands principes fondateurs, parmi lesquels on trouve celui du caractère libre de l’encyclopédie,  de nature essentiellement juridique. De ce principe découle les règles suivantes :

La prévention du copyvio (violation du droit d’auteur) est donc une garantie essentielle de la préservation du caractère libre de l’encyclopédie et de la possibilité pour tous d’en réutiliser les contenus.

Le copyvio fait l’objet de plusieurs définitions et présentations dans l’encyclopédie, qui décrivent en détail la procédure à suivre et notamment :

On peut également retrouver sur une page l’ensemble des pages soupçonnées de violation de copyright, ainsi qu’une archive, très intéressante à consulter, qui rassemblent tous les cas antérieurs.  Le Bistrot de Wikipédia, espace de dialogue entre les utilisateurs, est également instructif, car il contient beaucoup de discussions en rapport avec le copyvio et permet de repérer des cas complexes intéressants. On peut aussi trouver des éléments sur Legifer, la page des discussions sur les problèmes juridiques rencontrés au cours de l’utilisation de Wikipédia.

Le copyvio, une question de responsabilité

La violation des règles du droit d’auteur par des utilisateurs de Wikipédia soulève un problème de responsabilité. Depuis 2007, Wikipédia s’est vu reconnaître par les juges français la qualité d’hébergeur au sens de la loi LCEN. Cela signifie schématiquement que la Fondation Wikimédia qui héberge le site sur ses serveurs bénéficie d’un régime de responsabilité allégée lui permettant de n’être tenue responsable qu’au cas où elle n’agit pas promptement pour retirer des contenus manifestement illégaux après en avoir été informée.

En cas de violation des règles du droit d’auteur, ce sont donc les utilisateurs de Wikipédia eux-mêmes commettant des actes de contrefaçon qui sont responsables en première ligne. La responsabilité de la fondation Wikimédia ne peut être engagée que de manière résiduelle.

Cependant, malgré ce régime plutôt favorable, la violation du droit d’auteur, si elle prend des proportions trop massives, peut finir par poser des problèmes graves à Wikipédia.  En mars 2006, la déclinaison francophone de Wikisource, un autre projet de la fondation Wikimédia visant à rassembler des citations, avait ainsi été contraint de fermer pendant plusieurs mois suite à la violation massive d’une base de données. Le projet avait contraint repartir de zéro quelques mois plus tard tellement son contenu avait été “corrompu” par ces éléments protégés.

Le plagiat massif existe aussi dans Wikipédia, au point que des projets spécifiques ont été ouverts pour “nettoyer” les parties de l’encyclopédie les plus touchées (voir ici ou ). On comprend dès lors que des ressources et des procédures aient été mises en place pour permettre à la communauté des utilisateurs de Wikipédia et à ses  administrateurs de réguler les problèmes de copyvio. De cette manière, la Fondation Wikimédia n’agit pas directement, ce qui pourrait lui faire perdre son statut d’hébergeur. Et le respect des règles du droitd ‘auteur devient la responsabilité de tous, ce qui n’est peut-être pas un mal, comme nous le verrons plus loin.

Que faire en cas de copyvio ?

De manière schématique, la procédure de régularisation d’un copyvio passe par plusieurs étapes.

Lorsqu’un contenu de l’encyclopédie éveille un soupçon de violation d’un droit d’auteur (on verra plus loin comment ce premier repérage peut s’effectuer), il est identifié comme tel par le biais d’un bandeau particulier apposé en tête de l’article. Cette première opération peut être le fait d’un administrateur de Wikipédia ou d’un simple utilisateur de l’encyclopédie. Une page de discussion est alors ouverte indiquant la personne qui a repéré le copyvio et lui permettant d’indiquer les raisons qui ont éveillé ses soupçons. L’auteur du passage litigieux (qui peut être un utilisateur disposant d’un profil sur Wikipédia ou simplement identifié par le biais de son IP) est alors invité à se manifester pour fournir des explications (une sorte de procédure contradictoire somme toute, voir ici un exemple). Un bandeau “Copieur” peut même être apposée sur sa page personnelle de discussion pour l’inciter à venir se justifier (chose qui peut être assez mal vécue par l’intéressé). Se livrer à des actes de copyvio peut également finir par entraîner des sanctions et notamment le blocage d’un compte appliqué par les administrateurs de Wikipédia.

Au préalable, il est nécessaire de rassembler des preuves pour attester de la réalité de l’infraction au droit d’auteur. En général, il s’agit d’identifier la source qui a été copiée et de la comparer avec le passage de l’encyclopédie en cause. Certains cas relèvent du copier/coller pur et simple, mais les choses peuvent être bien plus complexes et dans toutes les hypothèses, il reste à apprécier s’il y a bien violation ou non d’une règle juridique, avec tous les problèmes d’interprétation que cela peut soulever. En cas de besoin, une autorisation peut être demandée auprès de l’auteur original du passage copié pour régulariser la situation, selon une procédure formalisée. Ces opérations doivent normalement se dérouler en une semaine.

La deuxième semaine, au cas où les soupçons sont confirmés (et seulement dans cette hypothèse, voir ici un exemple), l’article en cause devra soit être réécrit par un volontaire pour faire disparaitre l’infraction, soit toutes les versions problématiques devront être supprimées pour revenir à un état antérieur au copyvio. Ceci explique qu’il est important d’agir vite en cas de soupçon d’infraction, car si des développements ultérieurs sont apportés par d’autres utilisateurs à partir d’une version comportant un vice, il sera parfois nécessaire de les supprimer pour revenir à un état conforme au droit, avec un grande perte de matière pour l’encyclopédie (pour des exemples de “nettoyage difficile”, voir ici ou ici). C’est aussi le rôle du bandeau signalant le copyvio d’avertir les utilisateurs de ne pas continuer à développer un article tant que le problème n’est pas réglé. Si les preuves ne sont pas suffisantes pour établir qu’un droit d’auteur a été enfreint ou si le soupçon est dissipé, le bandeau est retiré.

La troisième semaine, au cas où la violation a été établie et l’article modifié en conséquence, il reste encore à effectuer une opération que seuls les administrateurs de Wikipédia peuvent accomplir : purger l’historique de l’article pour faire disparaitre les versions affectées par un copyvio. Sans cela, ces versions pourraient à nouveau être affichées en consultant l’historique et la violation du droit d’auteur persisterait, malgré la modification de l’article.

De l’art de repérer le copyvio

Le repérage des violations au droit d’auteur dans Wikipédia est en soi une question intéressante. Comme le fait remarquer l’utilisateur R dans cette discussion, l’expérience joue un certain rôle :

“L’intuition est la meilleure technique pour détecter les violations de copyright”.

Visiblement, les utilisateurs expérimentés arrivent à repérer “à l’œil” des blocs qui ont été repris ailleurs par copier/coller, car ils présentent des défauts du point de vue de la syntaxe wiki (exemple ici). La section Astuces/Copyvio précise :

“Une copie enfreignant le droit d’auteur est souvent aisément identifiable : une grande quantité de contenu inséré en une seule fois, sans fautes d’orthographe, avec une mise en page inhabituelle pour Wikipédia, des titres et sous titres n’utilisant pas la syntaxe wiki et parfois numérotés, des phrases mal placées et encadrées”.

Parfois c’est une rupture de style dans le ton de l’article qui peut éveiller des soupçons.

Cette première étape de signalement des copyvio est essentiellement réalisée par des humains, mais elle peut  être également le fait de robots automatiques qui vont lancer des recherches sur le net et marquer les pages en attendant la confirmation d’un humain.

Confirmer ou infirmer les soupçons de copyvio

La méthode principale pour confirmer un soupçon de copyvio consiste à utiliser un moteur de recherche en copiant le passage litigieux pour vérifier s’il ne figure pas ailleurs sur Internet.

Cette première opération ne suffit pas à elle seule à établir le copyvio. En effet, il arrive souvent que ce ne soit pas un utilisateur qui ait plagié un contenu extérieur, mais… l’inverse. Wikipédia est elle-même largement reprise par d’autres sites (et c’est même l’un de ses buts premiers que d’être librement réutilisable).

Cette reprise de contenus de l’encyclopédie ne facilite cependant pas la tâche de ceux qui cherchent à établir si un copyvio a été commis, car il faut être en mesure d’établir l’antériorité du site extérieur sur la version de l’article de Wikipédia en cause (exemples de cas difficiles ici ou). Pour lever les doutes, les Wikipédiens utilisent la Wayback Machine d’Internet Archive qui permet de fouiller dans les Archives du Web pour établir la date d’apparition d’une page (voir ici, ou ).

Il faut noter que si l’encyclopédie est libre et ses contenus réutilisables (y compris à des fins commerciales), il n’en reste pas moins que la licence de Wikipédia impose le respect d’un certain nombre de conditions (créditer les auteurs de l’article en faisant un lien vers la page d’historique ; indiquer que l’article repris provient de Wikipédia ; faire un lien vers la licence de Wikipédia). Une procédure de copyvio qui permet de repérer qu’un contenu de Wikipédia a été repris à l’extérieur sans respecter ces conditions peut être l’occasion de procéder à un rappel à l’ordre par le biais d’un courrier. Le problème du plagiat se pose dans les deux sens pour Wikipédia et l’actualité récente nous a montré des cas de reprise sauvage des contenus de l’encyclopédie par des médias traditionnels assez surprenants (voir ici ou ).

La vérification d’un copyvio peut être complexe lorsque la copie a été effectuée à partir d’un site internet, mais elle l’est  plus encore quand c’est un ouvrage papier qui a été plagié. Le repérage du copyvio est alors plus ardu (exemple de cas identifiés ici, ou ) et la confirmation des doutes peut passer par une vérification en bibliothèque, pour laquelle la communauté s’est organisée afin de mutualiser le résultat des recherches.

Établir la réalité d’un copyvio par rapport à la loi

Une fois qu’il a été établi que le contenu d’un article de Wikipédia a été recopié depuis une source extérieur, il reste encore à déterminer si les règles fixées par le Code de la Propriété Intellectuelle ont bien été enfreintes, et c’est certainement l’étape la plus complexe.

Dans tous les cas, il est nécessaire de vérifier le statut juridique initial du texte repris pour savoir s’il ne permet pas légalement la reprise. Il pourra en être ainsi si le texte qui a été copié appartenait par exemple au domaine public (ce qui peut être difficile à établir) ou s’il était diffusé sous une licence libre compatible avec celle de Wikipédia.

En matière de copyvio, la question juridique qui revient le plus souvent concerne l’application de l’exception de courte citation prévue par le droit français. L’article L.122-5 du CPI indique que :

“Lorsque l’oeuvre a été divulguée, l’auteur ne peut interdire [...] :

3° Sous réserve que soient indiqués clairement le nom de l’auteur et la source :

a) Les analyses et courtes citations justifiées par le caractère critique, polémique, pédagogique, scientifique ou d’information de l’oeuvre à laquelle elles sont incorporées ;

Simple en apparence, ces règles peuvent s’avérer à l’usage très délicates à appliquer, notamment parce que la loi ne définit pas avec précision à partir de quand une citation cesse d’être courte. Nombreux sont les cas de copyvio qui donnent lieu à des hésitations et à de longues discussions pour savoir si la reprise d’un contenu cadre avec la brièveté imposée par la loi (voir par exemple ici ou ).

Autre difficulté que l’on oublie trop souvent, les citations pour être légales même lorsqu’elles sont courtes doivent impérativement indiquer le nom de leur auteur (pour respecter le droit moral), ainsi que leur source, et ce sont parfois de telles lacunes qui sont en cause dans un copyvio.Plus rarement, c’est la manière d’utiliser le texte repris qui fait problème, parce qu’elle ne manifeste aucune intention d’illustrer, de critiquer ou d’informer, ce que la loi exige également pour admettre la citation (voir ici).

Mais les choses se compliquent encore lorsque ce ne sont plus seulement des copier/coller qui sont en cause, mais des emprunts plus subtils à des textes impliquant des reformulations ou des modifications plus ou moins importantes. On trébuche alors sur la question redoutable de savoir où s’arrête l’inspiration et où commence le plagiat (voir ici). L’exemple suivant montre que la frontière entre les deux peut être très difficile à établir :

L’article wikipedia est certes fortement inspiré par cette page mais ce n’est pas un simple copier/coller. L’auteur a synthétisé les informations, et, vu le manque de sources sur cet écrivain, c’est plus une question d’admissibilité qui me vient à l’esprit. Pour le copyvio, j’hésite : dans quelle mesure cette synthèse d’infos – maigres, donc forcément proche de la source originale – est-elle une violation du droit d’auteur ? P;ê une simple réecriture des passages qui te semblent trop identiques suffirait, non ? Cdlt.

La question des limites entre citation et transformation d’un contenu peut aussi se poser lorsqu’un livre est résumé pour constituer le corps d’un article de l’encyclopédie (voir ici).

à mon avis la source est clairement le site http://dspt.club.fr/Holweck.htm. Le lien est d’ailleurs présent dès la création. Mais il ne s’agit ni d’un copié collé, ni d’un plagiat. plutôt d’un résumé. Je ne pense pas qu’on puisse parler de violation de copyright. On peut juste déplorer que l’article soit construit à partir d’une source unique. D’autres avis ?

Incertitudes aux frontières du droit d’auteur

Le principe même d’une encyclopédie est de collecter des faits et des informations recueillies à partir de sources secondaires. Cette nécessité de sourcer soigneusement les articles fait même partie des règles fondamentales de Wikipédia et constituent une garantie de la neutralité de point de vue.

Théoriquement, le droit d’auteur ne protège pas les faits bruts, les informations ou les idées, mais seulement leur mise en forme originale. Néanmoins à regarder de près les archives des cas de copyvio, on se rend compte qu’il peut être très difficile de distinguer un plagiat d’une simple reprise d’informations.

Ici, à propos de l’article Pecari à collier, se pose la question de savoir si la reprise d’informations ou de faits comme la durée de vie, la taille de la portée, etc à partir d’une source relève ou non du plagiat. L’article Expressions marseillaises donne lieu à une discussion intéressante sur le fait de savoir si les expressions d’un langage peuvent faire l’objet d’une protection par le droit d’auteur lorsqu’elles sont décrites dans un dictionnaire. A propos de l’article Droit de la Guerre, une discussion assez vive a lieu pour déterminer jusqu’à quel point les idées de Grotius ou Puffendorf peuvent être reprises, lorsqu’elles sont commentées dans des sources secondaires :

il faudrait peut-être distinguer entre un article original qui présenterait une analyse inédite, ayant un auteur, et relevant des droits d’auteurs, à distinguer donc des textes du genre présentation d’un organisme , qui lui-même recopie des bouts d’histoires du droit ou / et de textes de droit /et d’histoire écrite précédemment par les philosophes ou les historiens et qui constituent des connaissances de nototriété publique. Grotius, Rousseau, Les Conventions de Genève n’appartiennent à personne et sont simplement tellement connus et tellement souvent cités que chacun peut s’y reconnaître mais serait mal fondé de se les approprier et de s’en prétendre l’auteur

Les listes constituent également un type de contenus qui soulèvent manifestement des problèmes juridiques particuliers en cas de reprise dans Wikipédia (voir cette discussion au Bistrot). Les faits qui sont listés ne peuvent pas être protégés en eux-mêmes, mais la présentation générale de la liste, la formulation, l’ordre, etc peuvent offrir prise à la protection par le droit d’auteur et une liste conséquente pourrait également être couverte par le droit des bases de données. Avec à la clé beaucoup d’incertitudes comme le montre cette discussion à propos de la reprise sous forme d’article dans Wikipédia de la liste des passagers du Titanic, tirée d’une encyclopédie, finalement considérée comme un copyvio.

Régulariser les problèmes de copyvio

La suppression des versions d’un article affectées par un copyvio constitue une sorte d’ultime recours pour éviter l’infraction, mais il existe d’autres moyens de régulariser une situation de copyvio.

Il est possible notamment de contacter l’auteur du contenu repris pour lui demander l’autorisation explicite d’intégrer son texte à l’encyclopédie (exemples de régularisations opérées par ce biais ici ou ). Une procédure particulière a même été formalisée de façon à ce que le consentement exprimé par l’auteur soit bien valide (et comporte l’acceptation de placer son apport sous la licence particulière de Wikipédia). Des courriers type sont prévus et un système de délivrance de tickets (OTRS – Open source Ticket Request System) permet de gérer automatiquement les licences obtenues. Si l’auteur ne peut pas être contacté ou ne répond pas, la situation ne peut pas être régularisée et la version de l’article doit être supprimée (cas proche de celui des oeuvres orphelines, voir ici). Ces demandes peuvent aussi aboutir au résultat que l’auteur accepte de faire passer son site sous licence libre afin de permettre légalement la reprise (comme ici).

Dans certains cas, il s’avère que le wikipédien soupçonné d’avoir commis un copyvio en reprenant un texte déjà publié s’avère être en définitive lui-même l’auteur de cette oeuvre qu’il a sciemment choisi d’intégrer à l’encyclopédie (voyez ici ou). On pourrait penser que les choses sont alors simples, puisque l’auteur en écrivant l’article parait ipso facto accepter la publication dans Wikipédia. Mais là aussi une procédure spéciale a été mise en place dite de republication qui permet de s’assurer que l’auteur dispose bien des droits sur son texte et qu’il accepte de le placer sous la licence libre de Wikipédia.

Une autre manière de régulariser une situation de copyvio peut tout simplement consister à réécrire le passage problématique de manière à conserver les éléments d’informations importants tout en changeant la formulation. Ce moyen permet de “sauver” l’article, mais il peut impliquer un travail long et complexe. Certains wikipédiens préfèrent traduire des articles issus d’une version étrangère de Wikipédia pour remplacer les passages mis en cause et menacés de suppression (voir ici ou ).

Le copyvio et le projet encyclopédique de Wikipédia

En se plongeant dans les archives du bistrot de Wikipédia, on tombe sur des discussions assez surréalistes à propos du copyvio. Ici un wikipédien remarque que l’article Belfort de l’encyclopédie contient des passages très largement repris de l’article Besançon et se demande s’il ne se produit pas une sorte de copyvio “interne”, résultant de la reprise d’une page par une autre. La question n’est pas seulement théorique puisque si la réutilisation des contenus de Wikipédia est libre, elle implique que les contributeurs des pages soient cités en établissant un lien vers l’historique des articles pour respecter leur droit moral. Or si un wikipédien se contente de recopier le contenu d ‘un article dans un autre, il ne respecte pas cet exigence et provoque une sorte de plagiat… endogène !

Dans cette autre discussion, on parle d’un cas surréaliste dans lequel :

un utilisateur copie lui-même ses propres livres sur WP puis change d’avis, efface tout et vient nous accuser de ne pas respecter les droits d’auteurs parce qu’on reverte ses blanchiments non justifiés dans la partie “résumé”.

Et un wikipédien se demande :

si on copie une partie d’un article que l’on a soi-même écrite au sein d’un autre article, peut-on entamer des poursuites contre nous-même ?

Plus sérieusement, on trouve des discussions passionnantes à propos du copyvio qui agitent la communauté des wikipédiens et qui touchent au coeur même du projet encyclopédique qui l’anime (voyez ici ou ).

Les règles de fonctionnement de Wikipédia la place certainement dans une position délicate vis-à-vis du droit d’auteur. L’un des principes constitutifs de Wikipédia est de ne pas admettre en son sein de travaux inédits. Ce critère d’admissibilité des articles garantit que les contenus de Wikipédia s’appuie bien sur des sources qui en assurent la vérifiabilité.

Dès lors, on comprend que la citation joue un rôle essentiel dans la rédaction des articles et que la reprise des contenus extérieurs, souvent dénoncée comme un pillage, est une nécessité inscrite au coeur même du projet encyclopédique de Wikipédia. Il est normal en ce sens que le copyvio fasse débat au sein de la communauté, car de sa définition dépend la capacité de Wikipédia à “s’arrimer” légalement aux sources extérieures qui en forment la substance.

Certains déplorent une conception trop stricte du copyvio qui pourrait bloquer la possibilité de sourcer convenablement les articles de l’encyclopédie.

Il faut en effet raison garder: un auteur n’a pas déposé un copyright sur les mots qu’il utilise. Quelqu’un disait quelque part: “Pour ce qui est de la copie de texte, à partir du moment où on copie, il y a copyvio. Qu’il s’agisse d’une phrase, de deux ou d’un texte entier, accepter cela c’est accepter le pillage des auteurs.” Le raisonnement semble pertinent, mais il est absurde. La même personne ajoutait: “Et où s’arrêterait la limite?”. Je répondrai qu’on ne saurait mieux dire. Où en effet? Pourquoi limiter la protection à une phrase? Tout groupe de mots devrait être digne de la même protection, donc même par exemple deux mots ?

Mais d’autres au contraire mettent en garde contre l’abus des citations qui peut dénaturer tout autant les articles de Wikipédia :

un article encyclopédique ne peut pas être un recueil de citations brutes, démuni d’analyses, d’explications et de critiques.

À vue de nez, facilement 9 citations sur 10 présentes dans Wikipédia ne sont pas justifiées. Les citations sont certes autorisées, mais ça ne veut pas dire qu’elles sont souhaitables. Les seules citations que je trouve acceptables sont celles situées en notes, comme justification d’une information encyclopédique sur ce que truc ou machin a dit.

Je serais d’avis de limiter au maximum les citations dans le texte des articles de Wikipédia. Une citation n’est pas un travail de synthèse encyclopédique, et je pense que l’article en question est typiquement un exemple de mauvaise citation. 1) Elle est trop longue, 2) Elle ne correspond pas vraiment à l’esprit du droit de citation (pas d’analyse), 3) Elle se substitue à une analyse encyclopédique.

Ces réflexions nous montrent que le copyvio touche à quelque chose de plus fondamental que le simple respect de la règle de droit. Derrière la question du plagiat, c’est le problème de la méthode de production du savoir encyclopédique à partir des sources qui est posée. Le plagiat ne résulte pas tant d’une volonté de piller que d’une difficulté à synthétiser et à reformuler les apports extérieurs pour les fondre dans le “style encyclopédique” de Wikipédia.

Et il est très intéressant de relever que la discussion sur le copyvio a débouché sur le projet de créer un guide méthodologique “Rédiger sans plagier” à l’attention des membres de la communauté.

Bien sûr, il ne s’agit pas de tomber dans l’angélisme. Le phénomène de plagiat existe dans Wikipédia : il suffit de regarder les archives du copyvio pour en avoir une idée et l’on ne peut s’empêcher de penser que ces cas ne constituent certainement qu’une partie des violations qui ont été repérées par les utilisateurs et les administrateurs de l’encyclopédie.

Néanmoins, les procédures mises en place pour remédier au problème du copyvio sont remarquables, peut-être autant par les débats qu’elle suscitent dans la communauté que par leurs résultats.

J’y vois une sorte de “Polis du droit d’auteur” dans laquelle les utilisateurs se réapproprient pleinement les règles juridiques au lieu de les ignorer ou de les subir passivement. Et ce nouveau rapport à la règle me parait infiniment plus sain, constructif et citoyen que les tartufferies gouvernementales qui ne raisonnent qu’en terme de répression et de “police du droit d’auteur”.

PS : Grand merci à tezo74 qui m’a donné l’idée d’écrire ce billet !


]]>
http://owni.fr/2010/01/03/quand-wikipedia-fait-la-polis-du-droit-dauteur/feed/ 3
Sergey Brin parle de Google [en/18'] http://owni.fr/2009/10/30/sergey-brin-parle-de-google-twitter-android-chrome-bing/ http://owni.fr/2009/10/30/sergey-brin-parle-de-google-twitter-android-chrome-bing/#comments Fri, 30 Oct 2009 11:20:43 +0000 Media Hacker http://owni.fr/?p=5026 Cliquer ici pour voir la vidéo.

Sergey Brin, cofondateur de Google, est intervenu le 22 octobre au cours de la Conférence Web 2.0 de San Francisco.
Il évoque Twitter (avec au passage des félicitations adressées à Evan Williams), Bing, Android, Chrome pour mac, entre autres …

La remarque sur la publicité sur Google est assez intéressante : Brin estime en effet que le succès de Google est principalement lié au fait d’avoir pu voir de la valeur là où personne ne regardait. Il en déduit qu’il est impossible de prédire la modalité principale de création de valeur sur le web dans les années à venir…

> Retrouvez le résumé de la conférence par Techcrunch

]]>
http://owni.fr/2009/10/30/sergey-brin-parle-de-google-twitter-android-chrome-bing/feed/ 1