OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Fortune des dictateurs: au tour de Ben Ali et Kadhafi http://owni.fr/2011/04/18/carte-biens-mal-acquis-kadhafi-ben-ali/ http://owni.fr/2011/04/18/carte-biens-mal-acquis-kadhafi-ben-ali/#comments Mon, 18 Apr 2011 15:06:52 +0000 Olivier Tesquet http://owni.fr/?p=56887 Près de 200. C’est le nombre de biens mal acquis de cinq despotes africains que nous avons identifiés et listés sur notre carte consacrée au trésor des dictateurs. L’association Sherpa, qui “protège les populations victimes de crimes économiques”, avait déjà largement documenté les avoirs dans l’Hexagone de feu Omar Bongo (président du Gabon), Denis Sassou N’guesso (président du Congo-Brazzaville) et Théodore Obiang (président de la Guinée-Equatoriale). Une bonne partie de leur patrimoine avait été consignée dans des listings, pour un montant total évalué à 35 millions d’euros, que nous avons regroupé sous trois catégories:

  • Voitures de luxe et biens de consommation
  • Hôtels particuliers et biens immobiliers
  • Comptes en banque disséminés à travers le monde

A la faveur des révolutions arabes, de nouveaux noms font leur apparition dans ce club fermé des fortunes mal acquises. Parmi eux, Zine el-Abidine Ben Ali, le président tunisien déchu, et Mouammar Kadhafi, le dictateur atrabilaire s’accrochant à sa chaire de Guide de la Révolution.

Les révolutions pourraient relancer des procédures enterrées

Aux plaintes déposées devant la justice par les ONG Sherpa et Transparence International en 2008, les gouvernements incriminés avaient riposté par la voie de recours judiciaire, avec un certain succès. En avril 2009, le Tribunal de grande instance de Paris s’était opposé à l’ouverture d’une enquête, et il avait fallu une décision de la Cour de cassation en novembre 2010 pour casser ce premier avis.

Finalement, les soulèvements populaires récents pourraient bien relancer des procédures fastidieuses. Après avoir multiplié les déplacements de l’autre côté de la Méditerranée ces dernières semaines, l’avocat William Bourdon et Sherpa espèrent beaucoup de la justice française: dans les affaires de corruption d’agents publics, définies par la convention OCDE de 1997, il n’y a pas de partie civile, et le parquet a le monopole de l’instruction. Parquet qui dépend directement du ministère de la Justice…

Le défi Kadhafi

Ainsi, le procureur de la République de Paris, Jean-Claude Marin, a été saisi pour identifier les biens des clans Ben Ali-Trabelsi et Kadhafi. Dans un courrier adressé le 7 mars 2011, Me William Bourdon et Daniel Lebègue (président de Transparence International) réclament “l’ouverture d’informations judiciaires, ce dernier cadre procédural [leur] paraissant mieux adapté à la complexité et au caractère international des infractions dénoncées.” Sherpa s’est également positionnée sur le cas du président égyptien Hosni Moubarak, même si l’essentiel de ses avoirs a été placé ailleurs en Europe, et notamment au Royaume-Uni. La City de Londres reste l’un des principaux havres de paix des chefs d’Etat kleptomanes.

Le 1er avril, c’est Michel Maes, Vice-Procureur de la République adjoint en charge des relations avec les commissaires aux comptes qui a reçu un courrier signé des deux associations. Dans celui-ci, elles demandent aux autorités françaises de s’aligner sur les décisions de gel votées en Tunisie, et réclament une vigilance particulière vis-à-vis des avoirs du colonel Kadhafi:

Il nous paraît important que vos recherches ne se limitent pas aux seules personnes physiques visées par la plainte mais soient étendues aux avoirs que pourraient détenir les fonds d’investissement libyens ainsi que la Banque Centrale de Libye sur le sol français. Dirigées par des proches du cercle Kadhafi ; ces différentes institutions sont réputées pour servir de réserve personnelle au clan.

Cliquer sur la carte pour naviguer dans l’application

D’après les estimations du Figaro, la seule Libyan Investment Authority (LIA), le premier fonds souverain libyen, gérerait 50 millions de dollars (la manne pétrolière, notamment), la moitié d’une fortune totale évaluée à 100 millions d’euros. Le défi, dans le cas du despote libyen? Remonter le fil de transactions rarement effectuées en son nom propre. “Concernant Ben Ali, on commence à avoir une idée précise de son patrimoine immobilier”, se réjouit Daniel Lebègue.

“Pour Kadhafi, c’est plus compliqué. Beaucoup d’investissements ont été faits par le biais de structures étatiques, sur lesquelles il exerce un contrôle absolu. Il a placé de l’argent dans de nombreuses places financières, aussi bien à la City de Londres que dans les pays du Golfe.”

Témoignages anonymes

Tandis que les premières informations précises affleurent, le travail de recension continue. Dans les premiers mémos de Sherpa, un large chapitre est consacré aux “sources d’information non confirmées”. On y découvre que le clan Ben Ali-Trabelsi a ses particularismes. Là où les familles Bongo et N’guesso ont acheté des appartements en leur nom, avec des oncles, des frères ou des nièces (quoi de plus logique, puisque les deux familles sont liées), les Tunisiens auraient fait beaucoup d’acquisitions par le truchement de sociétés civiles immobilières.

Et déjà, les langues se délient. C’est le second enseignement de ces documents. Trois mois seulement après le départ précipité de Ben Ali, les émoignages anonymes se multiplient, comme si des vocations de whistleblowers (lanceurs d’alerte, NDLR) étaient nées dans la transition démocratique. Coups de téléphone, riverains bavards, nombreux sont ceux qui se manifestent pour identifier les biens. Une manière comme une autre de solder un héritage plus que jamais coûteux.

Retrouvez l’intégralité des données ci-dessous (n’hésitez pas à nous fournir de nouvelles informations via le formulaire “Contribuez” de l’application):

Un immense merci à Jerôme Alexandre pour le développement et à Marion Boucharlat pour le design.


Crédits photo: Intertitres, Mykl Roventine

]]>
http://owni.fr/2011/04/18/carte-biens-mal-acquis-kadhafi-ben-ali/feed/ 18
Google recherche domaine public désespérément http://owni.fr/2010/10/07/google-recherche-domaine-public-desesperement/ http://owni.fr/2010/10/07/google-recherche-domaine-public-desesperement/#comments Thu, 07 Oct 2010 07:58:38 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=30721 L’affaire Google Book paraît au point mort, tant la machine judiciaire américaine semble s’être enlisée dans l’examen du second Règlement, qui devait mettre un terme aux poursuites dont Google faisait l’objet de la part des auteurs et éditeurs. Si ce n’était la parution d’une étude de fond par le professeur Pamela Samuelson « The Google Book Settlement as Copyright Reform« , on pourrait penser que les choses sont redevenues complètement inertes sur ce front.

Pourtant il se passe des choses, mais pour une fois, ce sont moins les livres sous droits qui posent problème à Google que les livres du domaine public. À mesure que le contenu de sa bibliothèque numérique grandit, Google se trouve en effet confronté à un défi de plus en plus complexe pour déterminer si les ouvrages scannés appartiennent ou non au domaine public, afin de savoir s’il peut les diffuser dans leur intégralité ou seulement sous la forme d’extraits.

Combien d'ouvrages restent ainsi "gelés" par l'incertitude juridique dans Google Book ? Colorado 2005054. Par Michael (mx5tx). CC-BY. Source : Flickr

Le diagnostic juridique est plus simple à effectuer pour les Etats-Unis, car une règle veut que les œuvres publiées avant 1923 appartiennent automatiquement au domaine public. Mais pour le reste du monde, Google est obligé de composer avec la variété des lois nationales en matière de durée du droit d’auteur et de déterminer l’identité des auteurs sur les ouvrages, ainsi que leurs dates exactes de décès. Comme ces informations sont loin d’être disponibles dans tous les cas, Google a instauré une règle automatique de protection en bloquant la diffusion des ouvrages publiés après à 1870, quand leur statut juridique est indéterminé.

Des milliers et des milliers de livres doivent ainsi rester « congelés » dans la banquise de l’incertitude juridique et la situation peut même devenir épineuse pour Google lorsqu’il a affaire à des éditeurs un peu malins, qui profitent des lacunes de l’information juridique pour tenter de faire main basse sur le domaine public…

Google, victime du « coup du reprint » ?

C’est une tactique bien connue du monde de l’édition de tenter de faire renaître des droits d’auteur sur le domaine public à l’occasion d’un simple reprint (copyfraud !). Le site Techdirt nous apprenait au début du mois dernier qu’un éditeur américain, Kessinger Publishing, était en train de tenter cette manœuvre avec Google Book, avec un certain succès, semble-t-il. Son plan consiste à télécharger des ouvrages du domaine public à partir de la bibliothèque numérique ; à en faire des réimpressions et à se retourner contre Google en lui réclamant d’en bloquer l’accès, en se prévalant de droits sur les reprints.

Le pire, c’est que visiblement… ça marche ! Des utilisateurs se sont plaints sur le forum de Google Book d’avoir vu disparaître certains des ouvrages auxquels ils avaient accès et la manœuvre de Kessinger Publishing concernerait plus de 97 000 ouvrages (!!!). L’éditeur est même allé jusqu’à déposer un ISBN pour mieux appuyer ses prétentions. De l’art de se servir de Google Book pour faire sortir des livres du domaine public et se les approprier…

La réaction de Google de bloquer ces ouvrages peut surprendre. Techdirt estime qu’il s’agit d’une sorte de « réflexe » de la firme, échaudée par une série d’affaires en justice à propos de sa bibliothèque numérique, qui préfère à présent retirer d’abord et examiner ensuite le bien-fondé des plaintes. On peut lire ici cependant dans cette autre discussion de forum, de la bouche d’un de ses employés, que Google a l’air de donner raison à l’éditeur et de considérer que ces reprints constituent bien des rééditions qui font renaître des droits…

Une telle attitude est vraiment étonnante (à tel point que certains en viennent à se demander si tout cela n’est pas un coup monté de toutes pièces par Google, qui agirait en sous-main à travers Kessinger Publishing pour reverrouiller les ouvrages du domaine public ! Bienvenu dans X-Files !)

Mais il y a quelque chose de plus troublant encore, qui me donne beaucoup à réfléchir…

Et si l’exclusivité commerciale de Google Book ne valait… rien !

Avant même d’avoir à juger si les revendications de Kessinger Publishing sur les ouvrages du domaine public étaient fondées, Google aurait pu répliquer en accusant l’éditeur d’avoir violé l’exclusivité commerciale qu’il revendique sur les ouvrages numérisés par ses soins. Car Kessinger Publishing fait bien commerce des ouvrages récupérés et réimprimés, par le biais d’Amazon. Cette exclusivité, Google y tient pourtant… C’est l’une des restrictions fortes que Google impose à ses bibliothèques partenaires, en leur interdisant pendant une durée variable de faire elle-même un usage commercial des copies qui leur sont remises ou de les transférer à une partenaire susceptible d’en faire un usage commercial.

Si Google n’a pas réagi en menaçant l’éditeur de poursuites, c’est peut-être tout simplement que cette fameuse exclusivité n’est pas si solide en droit. Peut-être n’a-t-elle même aucune valeur et ne constitue-t-elle qu’un moyen d’intimidation ? Techdirt le laisse clairement entendre :

Now, it’s important to note that Kessinger reprinting public domain books scanned by Google is perfectly legal [...]. There’s nothing infringing (at least in the US — elsewhere, it’s a bit unsettled) about taking someone else’s scan of public domain works and then publishing it yourself.

À bon entendeur, salut… et notamment toutes les bibliothèques partenaires de Google ! Il est peut-être temps de se demander si de simples clauses contractuelles ont vraiment le pouvoir de faire renaître des droits sur le domaine public….

La fameuse exclusivité commerciale qui apparaît dans les conditions d'utilisation des fichiers que l'on télécharge à partir de Google Book

L’autre explication possible, c’est que Google est bien en peine de déterminer si les ouvrages en question font ou non partie du domaine public…

L’intelligence collective à la rescousse…

Coïncidence ? La semaine dernière, le même site Techdirt relevait que Google avait lancé un appel sur le forum de Google Book pour inviter les utilisateurs à lui signaler les livres encore bloqués qui appartiendraient au domaine public, afin que leur statut puisse être éventuellement révisé. Plusieurs personnes se sont déjà manifestées pour apporter à Google de précieuses informations juridiques concernant des ouvrages.

Ce n’est pas la première fois que l’intelligence collective est ainsi appelée à la rescousse pour améliorer la gestion des droits. OCLC avait en effet lancé en 2008 une expérience en ce sens avec le Copyright Evidence Registry. Cette interface collaborative devait permettre aux bibliothécaires et professionnels de l’information partout dans le monde de partager des informations légales sur les livres, afin de compléter les métadonnées de Worldcat. Il était même prévu qu’à terme ces données puissent servir à bâtir un système automatique permettant de déterminer l’appartenance ou non d’un ouvrage au domaine public. Ce projet pilote devait durer six mois dans une première phase. Depuis son lancement, on n’a guère eu de nouvelles de son avancement et il est difficile de savoir où il en est aujourd’hui.

OCLC et Google ayant signé un accord pour permettre à ce dernier de réutiliser les données de Worlcat, on peut imaginer que les informations juridiques collectées par ce biais bénéficient d’une façon ou d’une autre à Google. Mais elles doivent être bien insuffisantes encore pour que Google, le géant de l’information, soit contraint d’ouvrir à ce sujet des discussions de forum !

Et certains exemples montrent la gestion des droits sur les livres numérisés restera certainement encore inextricable pendant longtemps.

C'est dingue, les gars de Google ne veulent pas croire mon arrière-petit-fils ! Image CC Flickr Okinawa Soba.

Mais puisque je vous dis que c’est mon arrière-grand père !

Ce billet est l’occasion pour moi d’attirer votre attention sur un cas assez symptomatique de cette grande pagaille de la gestion des droits, qui m’avait été rapporté en mai dernier dans les commentaires d’un autre billet de S.I.Lex.

Un internaute, sous le pseudo de Bowatz, était venu me raconter que Google Books bloquait l’accès à plusieurs ouvrages dont son arrière-grand père était l’auteur, alors même qu’ils étaient manifestement dans le domaine public, l’aïeul étant décédé en 1914. Ces livres devenus rares et difficiles à trouver en France, Bowatz demandait à Google qui avait trouvé ses exemplaires dans des bibliothèques américaines, de les débloquer. Mais malgré plusieurs échanges de mails, Google semblait s’en tenir à sa règle automatique de 1870 et refusait paradoxalement de reconnaître qu’il avait le droit de diffuser ces livres ! Voyez la réponse que Bowatz avait bien voulu poster sur S.I.Lex :

Nous préférons nous montrer très prudents. C’est pourquoi nous diffusons uniquement de courts extraits jusqu’à ce que nous parvenions à déterminer si un livre est protégé ou non par des droits d’auteur.

Nous recherchons actuellement des solutions pour augmenter le nombre d’ouvrages consultables dans leur intégralité dans le monde entier. Notez que certains titres pouvant être téléchargés au format PDF dans certains pays peuvent ne pas l’être dans d’autres, selon la législation locale en matière de droits d’auteur. Notre objectif est de rendre Google Livres aussi utile que possible, ce qui signifie que nous intégrons un maximum d’ouvrages au lieu d’attendre d’avoir pu déterminer avec précision leur statut.

Seuls les livres relevant du domaine public (livres pour lesquels les droits d’auteur sont arrivés à expiration) peuvent être téléchargés. Pour les internautes se trouvant aux États-Unis, il s’agit en principe de tous les livres publiés avant 1923. Dans les autres pays, nous déterminons la date appropriée en fonction de la législation locale.
Comme pour toutes les décisions relatives au contenu de Google Livres, nous adoptons une attitude prudente tant dans la lecture de la loi sur les droits d’auteur que sur les faits connus concernant un livre donné. Cette fonctionnalité n’est pas disponible pour les livres sous droits d’auteur. Google respecte et protège en effet les droits d’auteur de tous les éditeurs.

Google ne partage pas les livres sous droits d’auteur. Notez que les ouvrages relevant du domaine public ne sont pas encore tous dotés de l’option « Télécharger ».

Nous travaillons actuellement à l’ajout de ce bouton sur tous ces ouvrages. Nous vous remercions de votre patience.

C’est alors qu’un autre lecteur de S.I.Lex, Bernard Majour, suggéra judicieusement d’aller demander aux bibliothèques partenaires de Google, qui ne devaient pas manquer d’avoir reçu un exemplaire numérisé. Bowatz identifia que les ouvrages de son arrière-grand père provenaient d’Havard et de Michigan, et il adressa à nouveau sa demande d’accès aux deux bibliothèques. De manière surprenante, le même principe de précaution lui fut opposé :

Réponse de Michigan (qui gère le Hathi Trust, l’entrepôt géant dans lequel les bibliothèques partenaires de Google déposent leurs copies) :

So the unfortunate news that I need to give you then is that for persons accessing works in HathiTrust from outside the US, we are only providing full text access to works published prior to 1870. We realize this is not ideal, but at this point we aren’t able to make individual determinations of copyright status of non-US works based on author death dates/on a country-by-country basis. We are hopeful that as the project progresses we will be able to revise this policy and/or do individual determinations on foreign works, but at this point we don’t have the staffing/expertise to do so. Google makes their own determinations about copyright status, but they use this same criteria. My understanding is that it is a blanket « safe » year/amount of time before which all foreign works are likely to be safely in the public domain.

Réponse d’Havard :

Depending on your location, definitely if you are within the U.S., you can download pdf files from Google Books directly, or via the HOLLIS Catalog. I believe the end results are the same.

Même en apportant la preuve que l’auteur était bien décédé depuis 70 ans, Bowatz ne pouvait pas obtenir accès à l’ouvrage de son arrière-grand père, alors qu’il aurait pu le faire s’il avait été aux États-Unis… Mais finalement, celui-ci ne se laissa pas démonter, et via un proxy américain, il réussit à berner Google Book et à télécharger les ouvrages tant désirés (ce qui au passage en dit long sur la fiabilité des protections mises en place par Google…).

Édifiant, non ?

Gestion des droits : à quand le deus ex machina ?

Les choses auraient peut-être été un peu différentes, si Bowatz avait cherché aujourd’hui à accéder à ces ouvrage. Il aurait tout d’abord pu fournir les informations dont il disposait à Google par le biais du forum et peut-être aurait-il eu gain de cause (cela vaudrait la peine d’essayer, pour voir). On également appris récemment que l’Université du Michigan avait lancé un système de gestion des droits, qui servira à établir des diagnostics automatiques du statut juridique des ouvrages dans Hathi Trust (CRMS : Copyright review Management System).

En Europe, c’est normalement le projet ARROW qui devrait servir à mettre en place une architecture de gestion des droits à l’échelle des pays de l’Union. Des progrès ont visiblement été accomplis la semaine dernière, avec la remise de documents d’étape importants à la Commission européenne, mais les résultats concrets se font toujours quelque peu attendre.

Sinon en France, il paraît que 750 millions d’euros devraient être consacrés à la numérisation du patrimoine culturel dans le cadre du grand emprunt. J’espère que quelqu’un a songé à proposer qu’une partie de cet argent finance la création d’un Registre du domaine public français, qui permettrait de tracer les contours juridiques de notre patrimoine.

Non, personne ? Il me semble pourtant au vu de tout ce qui précède ci-dessus que ce serait diablement utile…

Billet initialement publié sur :: S.I.Lex ::

Image de une CC Flickr markhillary

]]>
http://owni.fr/2010/10/07/google-recherche-domaine-public-desesperement/feed/ 7
Quelle filière industrielle pour la numérisation du patrimoine ? http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/ http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/#comments Thu, 01 Jul 2010 16:11:27 +0000 Christian Fauré http://owni.fr/?p=20934

Le contexte de la consultation sur le Grand Emprunt

La cacophonie et la mécompéhension autour du Grand Emprunt, et plus précisément sur le volet numérisation, font qu’on est actuellement dans une situation de crise, au sens propre du terme : quelque chose va se décider.

Au départ, c’étaient 150 millions qui devaient être alloués aux institutions pour qu’elles puissent poursuivre et accélérer les projets de numérisation ; au final ce ne sont plus que des montants de prêts (donc remboursables avec intérêts) pour favoriser la mise en place d’une filière industrielle du numérique, basée sur des partenariats publics/privés.

On sait que l’actualité de la crise économique de ces derniers mois a certainement beaucoup favorisé la formulation très libérale de la consultation publique (le développement du « machin numérique ») lancée par le secrétariat de la Prospective et du Développement de l’économie numérique. De plus, dans le cadre d’une période d’austérité et de restrictions budgétaires importantes dans les dépenses de l’État, le Grand Emprunt devient un dossier beaucoup particulièrement épineux pour le gouvernement : difficile de dire « on fait les valises et on rentre » après avoir fait de la relance par l’innovation un axe important de la stratégie française.

Deux tentations s’opposent donc entre celle du ministère de la Culture et celle du ministère des Finances : le premier veut continuer à croire à la nécessité d’une politique culturelle tandis que le second tente de radicaliser les choix qui devront être faits sur la base exclusive du principe de rentabilité. Il n’y a donc plus de consensus au sein même du gouvernement sur l’avenir du Grand Emprunt, et les différentes institutions qui doivent participer à la solution (BnF, bibliothèques municipales, INA, IRCAM, Cinémathèque, Cité des Sciences, archives, musées, etc.) ne comprennent plus la règle du jeu, qui semble par ailleurs changer chaque jour en ce moment.

La vision qui est présentée ici est une tentative de réponse à la consultation publique sur le volet numérique. Elle a l’ambition de sortir par le haut des apories dans lesquelles la question de la numérisation du patrimoine dans le cadre du grand emprunt se retrouve aujourd’hui.

La publicité est-elle la solution ?

L’activité industrielle autour de la numérisation de contenus culturels et patrimoniaux est l’activité de numérisation qui est aujourd’hui la moins rentable si on la compare aux archives, cadastres et autres documents administratifs (littérature grise). D’autre part, on sait que Google a beaucoup investi sur cette activité avec sa plate-forme Google Books dont on commence à peine à entrevoir l’ampleur. Quel industriel voudrait, dans ces conditions, prendre le risque d’investir sur un secteur d’activité à faible potentiel rémunérateur tout en ayant la machine de guerre de Google en embuscade ? Soyons clairs : personne. Il faut donc poser le problème différemment.

Commençons pour cela par évacuer toutes les fausses bonnes idées que l’on peut entendre sur le modèle d’affaire qui pourrait rendre cette filière numérique rentable. Pour cela il faut d’abord savoir que la numérisation d’un ouvrage n’est, en moyenne,  rentabilisée qu’au bout de vingt ans, uniquement en ce basant sur le service de reproduction que propose la BnF. C’est une moyenne car, bien évidemment, certains ouvrages ne font l’objet d’aucune demande de reproduction. Quand se pose la question de savoir comment ce seuil peut être abaissé ne serait-ce que sur dix années, la réponse que j’entends systématiquement est : la publicité.

La publicité est généralement le joker que l’on avance quand on est à court d’idées. Et c’est assurément le modèle d’affaire le plus simple à proposer : il me manque 100 millions ? Qu’à cela ne tienne, la pub fera le reste. Comment et sur quelles bases ? La réponse est généralement plus évasive. Faut-il monter un mécanisme et une régie publicitaire en propre ? Faut-il s’appuyer sur les solutions clés en mains proposées par Google ? Cette dernière réponse serait pour le moins ironique puisque Google aurait une part importante du bénéfice publicitaire sans avoir investi dans la numérisation. Faire sans Google, c’est à l’inverse prendre le risque de se retrouver dans le collimateur d’un industriel du web qui s’y connaît et qui a les moyens de ses ambitions.

On préférera donc essayer de composer avec Google plutôt que de le concurrencer sur son propre terrain en faisant « Cocorico ! ». Les arguments basés sur la valorisation via un modèle d’affaire fondé sur la publicité ne tiennent pas la route, encore moins quand l’on sait que la valeur publicitaire sur le web, comme l’avait écrit Tim O’Reilly dès 2007, tend à se diluer très fortement. C’est la raison pour laquelle Google doit indexer toujours plus de contenus, nativement numériques ou à numériser,  pour amortir la baisse tendancielle de la valeur unitaire et nominale de la publicité.

Que vaut le numérique ?

Retour à la case départ : comment valoriser la numérisation du patrimoine ? Songeons-y un instant, si l’on se donne tant de mal pour imaginer un modèle d’affaire viable pour une filière industrielle de numérisation, c’est peut-être parce que le numérique, de manière tendancielle, ne vaut rien. Le numérique a un coût, surtout lorsqu’on doit numériser, mais, une fois l’investissement réalisé, financièrement et en tant que tel, il ne vaut plus rien. Soyons plus précis : un fichier numérique ne vaut rien. Et c’est bien la raison pour laquelle le monde de l’édition freine des quatre fers lorsqu’il s’agit de faire circuler un fichier numérique existant (même pour en donner une copie pour archive à une institution, la plupart refusent). Un fichier numérique en circulation, c’est de la nitroglycérine pour celui qui en attend une source de revenu.

Acceptons donc cette thèse, qui est aussi une hypothèse de travail, que le fichier numérique ne vaut rien. Et vérifions cette proposition :

  • pour les institutions, c’est généralement le service de reproduction qui est la principale source de revenu, c’est-à-dire le retour à l’impression papier.
  • pour les plates-formes de diffusion de contenus numériques, on sait bien que ce n’est pas le fichier numérique que l’on paye mais un écosystème technologique (format de fichiers propriétaires, logiciels verrouillés, périphériques spécifiques, fonctionnalités d’achat rapide brevetées, etc.)
  • pour d’autres initiatives plus confidentielles mais notables (par exemple PublieNet), c’est la qualité d’une présence sur le web et la sensibilité de la communauté des lecteurs/clients qui fait la différence : entre l’éditeur numérique et les lecteurs/acheteurs, il y a un crédit et une confiance.

La valeur d’un fichier numérique a donc besoin d’un service autre que la simple diffusion pour pouvoir avoir une valeur financière.

Le service de reproduction doit devenir le premier industriel d’impression à la demande

Loin d’enterrer les poussiéreux services de reproduction, il faut les muscler. Ces services, qui aujourd’hui nous semblent d’un autre âge, doivent se doter d’un service d’impression à la demande digne des autres acteurs leaders sur ce créneau. L’économie d’échelle qu’ils peuvent avoir, qui plus est sur la base d’oeuvres particulièrement attrayantes ne peut qu’être profitable. Cette re-fondation peut ramener dix ans, au lieu des vingt actuels, le délai d’amortissement d’une numérisation.

La chose n’est pas gagnée d’avance pour autant : il faut une plate-forme web en self-service qui demande du travail, il faudra être très rapide et avoir une logistique aussi affûtée que celle d’Amazon, a minima sur le territoire français. L’objectif est clairement de livrer au domicile d’un client l’impression d’un ouvrage relié de qualité en moins de 48 heures, et à peine plus s’il y a une demande d’impression personnalisée.

Sur cette voie, il va y avoir des frictions avec les plate-formes de distribution des éditeurs de la chaîne du livre. Mais pas dans l’immédiat puisque les modèles sont actuellement différents (pas d’impression à la demande, pas de self-service et pas de livraison au particulier), mais si la plate-forme d’impression à la demande est un succès, elle pourra proposer ses services différenciants aux éditeurs (traditionnels, mais aussi numériques) : par exemple proposer des « templates » de formats variés et personnalisables. N’oublions pas que près des trois quarts du coût d’un livre représentent les coûts d’impression, de distribution, de diffusion et de points de vente.

Le cas Gallica

Comment doit s'articuler le lien entre la BnF et Gallica ?

La filière de numérisation peut donc trouver un premier modèle économique dans l’impression. Pour où l’on voit que la valorisation de la numérisation se fait d’abord sur… l’impression. Mais se pose toujours la question de la diffusion sous format numérique et en ligne. Premier constat : c’est la vocation de Gallica. On comprendra dès lors que la filière numérique qui est appelée de ses vœux par le gouvernement aura du mal à accepter de faire le travail de numérisation pour que le fruit de son investissement se retrouve diffusé en ligne gratuitement sur Gallica.

Gallica devra être repensée, et pour commencer il faut que la bibliothèque numérique quitte le giron exclusif de la BnF. Cela veut dire que Gallica aura le statut d’un établissement public-privé dans lequel l’ensemble de plate-forme technologique sera possédée et gérée par le consortium privé investissant dans la filière numérique.

Statutairement, la BnF doit garder le contrôle et la maîtrise de la politique culturelle que porte Gallica. Mais cette maîtrise ne sera plus exclusive, elle devra être partagée car si cette bibliothèque en ligne se nourrit des ouvrages numérisés, et il faudra bien un modus vivendi et des droits de quotas pour chacun : la BnF peut vouloir numériser en premier des ouvrages qui ne sont pas jugés commercialement opportun pour le partenaire privé. Un système de quotas, qui devra évoluer dans le temps, doit être mise en place. Par exemple, sur les cinq premières années, sur dix ouvrages numérisés, le partenaire privé pourra en choisir cinq, tout comme la BnF. Par la suite, les résultats de la filière numérique serviront de référent pour faire évoluer les quotas : si la filière est sur le chemin de la rentabilité le ratio peut s’infléchir en faveur de la BnF, ou l’inverse si la rentabilité tarde à se faire jour. L’essentiel est de ne pas figer la formule et d’y introduire une variable dépendant de la rentabilité, sans quoi tout l’édifice s’effondre.

Cette réorganisation du statut juridique de Gallica devra nécessairement initier une refonte de la politique de gestion des droits des oeuvres qui n’est pas opérationnelle en l’état actuel (une licence sur mesure que ne peuvent pas exploiter les robots, et que d’ailleurs personne ne comprend vraiment).

Bien évidemment, d’un point de vue technologique, la plate-forme de service d’impression évoquée précédemment sera nativement intégrée à Gallica, on peut même forcer le trait en disant que Gallica ne sera qu’un module de la plate-forme d’impression.

Les métadonnées : clés de voûte de la nouvelle filière industrielle

Aussi étonnant que cela puisse paraître, dans cette consultation publique sur « le développement de l’économie numérique », il n’y est jamais question de métadonnées. Le mot n’y apparaît même pas une seule fois le long des trente-neuf pages du document. C’est proprement sidérant. Et ça l’est d’autant plus que la politique industrielle qui va être mise en place devra placer la question des métadonnées au cœur de tout le dispositif industriel.

Si l’impression à la demande était le volet diffusion papier et Gallica le volet diffusion numérique, ces deux activités passent à une niveau supérieur grâce à la politique sur les métadonnées. La richesse numérique de notre patrimoine est directement proportionnelle aux métadonnées qui le décrivent. Le trésor des institutions patrimoniales réside aussi et surtout dans leurs catalogues et leurs thesauri : tout comme on ne peut gérer un patrimoine physique sans métadonnées la question devient encore plus urgente quand l’oeuvre est numérisée : une politique numérique sans politique des métadonnées n’est qu’une chimère, un délire, une schwarmerei comme disait Kant.

Plutôt que de me répéter, je vous renvoie ici à ma note sur Les enjeux d’une bibliothèque sur le web où il était question des orages sémantiques mais aussi d’étendre la pratique de gestion d’un catalogue d’oeuvres à une pratique de gestion d’un catalogue des discussions et des polémiques relatives à ces oeuvres. Ainsi, fort de ce nouveau positionnement, et sur la base de sa nouvelle plate-forme technologique, la nouvelle filière industrielle du numérique pourra proposer des outils avancés à l’Éducation nationale pour doter l’enseignement d’un outil d’annotation et de contribution qui dépasse la vision simpliste et fade des « like », et donne enfin le pouvoir aux enseignants d’enseigner.

Chaque plate-forme de diffusion des oeuvres numériques rencontre très vite sa limite dans les faiblesses de sa politique des métadonnées. Le cas d’iTunes est représentatif : c’est une panique monstre pour faire des découvertes dans le catalogue, c’est pourtant paradoxal quand on sait que, même sur iTunes, les métadonnées (titre, auteur, artistes, jaquette, etc.) sont la vraie valeur des fichiers numériques (Cf. Quand les métadonnées ont plus de valeur que les données).

Pour les oeuvres qui sont du ressort de la BnF, le travail de bascule de l’ensemble des catalogues au format du web sémantique avec leur diffusion sur le web a déjà été initié : cette démarche est la clé de voûte, à la fois technologique et économique, de tout le système. Pour les oeuvres audios et vidéos (des oeuvres de flux), les outils d’annotation contributives (avec des métadonnées BottomUp et TopDown) doivent être développés en complément des catalogues descriptifs existants.

Le catalogage des orages sémantique permet également d’obtenir tout un appareil critique issu des informations collectées via le dispositif des orages sémantiques Si celui-ci est géré par la BnF, on peut réussir à mener une politique industrielle des technologies numérique dont le coeur du dispositif s’appuie, et trouve son crédit, dans la politique culturelle. Une logique économique exclusivement consumériste n’est pas une fatalité, loin s’en faut, car ce qui est brièvement décrit ici est un chemin vers une économie de la contribution financièrement rentable.

*

On peut donc sortir de l’alternance destructrice entre :

  • d’un côté une logique libérable de la privatisation adossée à une vision exclusive sur les retours sur investissement à court terme, grâce au dieu de la publicité ;
  • de l’autre une politique culturelle maintenue sous perfusion publique, mais à perte (la logique de la réserve d’indiens).

Que le Grand Emprunt accouche de quelque chose ou non, nous n’échapperons pas à cette lancinante question : quelle politique industrielle pour les technologies de l’esprit ? La seule réponse crédible passe par le positionnement de la politique culturelle au cœur de l’outil industriel, pas à côté. « Trade follows film » disait le sénateur américain McBride en 1912 : on va peut-être arriver à le comprendre cent ans plus tard en France, notamment pour donner au commerce et à l’économie un autre visage que le consumérisme américain.

Enfin, par pitié, arrêtons de parler systématiquement de e-tourisme dès qu’il est question des territoires. Les territoires sont autre chose que des destinations touristiques, et les régions n’hivernent pas toute l’année pour se réveiller quand les Parisiens et les étrangers prennent leur vacances. Ces modèles d’affaire sur le e-tourisme sont dangereux et méprisants.

Billet initialement publié sur le blog de Christian Fauré

Images CC Flickr Troy Holden et ►bEbO

]]>
http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/feed/ 5
Twitter: l’impossible archivage ? http://owni.fr/2010/05/12/twitter-limpossible-archivage/ http://owni.fr/2010/05/12/twitter-limpossible-archivage/#comments Wed, 12 May 2010 12:45:19 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=15397 La nouvelle avait fait sensation, il y a quinze jours : Twitter annonçait faire don de l’intégralité de ses archives à la Bibliothèque du Congrès à des fins de conservation et de recherche et c’est, comme il se doit, par un tweet que la LoC (Library of Congress) célébrait l’entrée du rétrospectif de Twitter dans ses collections.

Soit quand même plus de dix milliards de gazouillis !

Le même jour, Twitter et Google annonçaient le lancement d’un nouveau service du moteur de recherche – Google Replay – qui permettra d’effectuer des recherches chronologiques au sein du contenu de Twitter, avec à terme l’intention de balayer l’intégralité des archives, depuis son lancement en 2006.

Cette “patrimonialisation éclair” de Twitter, consacrée par son entrée à la Bibliothèque, a quelque chose qui peut surprendre, même si elle s’accorde bien avec le tempo ultra-rapide du microblogging. On peut aussi penser que Twitter contient déjà de vrais petits morceaux d’histoire, comme les tweets liés au hashtag #iranelections, le pépiement de la victoire électorale de Barack Obama ou encore le premier tweet envoyé depuis l’espace ! La globalité des tweets forme aussi une formidable archive du quotidien, ouvrant de nouveaux champs à la recherche historique, par le biais du data mining.

Pour autant, les commentaires français n’ont pas manqué de relever que ce transfert des archives de Twitter à la Bibliothèque du Congrès soulevait également des questions, à propos du respect de la vie privée ou du droit d’auteur. Et de l’autre côté de l’Atlantique, où l’on ne plaisante pas avec la protection de la privacy, c’est une véritable polémique qui s’est déclenchée, plaçant la LoC dans une position assez délicate (vous en trouverez quelques échos ici, rassemblés par le blog ArchivesNext).

À tel point que la responsable de l’archivage numérique de la LoC a donné une interview pour apporter des précisions sur le partenariat avec Twitter. La Bibliothèque a également publié cette semaine une FAQ, accompagnée (et c’est là que ça devient intéressant !) de l’accord par lequel Twitter a fait don de ses archives (ici).

L’analyse de ce document soulève des questions assez troublantes, qui me laissent penser que la constitution de la mémoire numérique, dans le cadre de partenariats  public-privé, est loin encore d’avoir trouvé son assiette juridique.

Le petit oiseau bleu est entré à la bibliothèque... et on a pas fini d'en parler ! (Library Bird. Par C.O.D Library. CC-BY-NC-SA. Source : Flickr)

Il faut en effet garder à l’esprit que Twitter est l’exemple type d’un service web 2.0, dont le contenu est produit par ses utilisateurs (User Generated Content). La question de la propriété de ces contenus est loin d’être aisée à appréhender, surtout que les micromessages de Twitter possèdent une nature assez particulière.

Copyright or not ?

L’été dernier, j’avais écrit une série de billets dans lesquels j’avais essayé de montrer que les tweets échappent dans leur immense majorité à la propriété intellectuelle, par manque d’originalité ou de mise en forme (ici ou ). Dès lors, ils relèvent plutôt du statut de l’information brute ou des données, et ne devraient pas pouvoir faire l’objet d’une appropriation (y compris d’ailleurs par leurs propres “auteurs” !).

Pourtant, quand on lit le Gift Agreement publié par la Bibliothèque du Congrès, on se rend compte que c’est sur le copyright que Twitter s’appuie pour délivrer à la LoC une licence d’utilisation de ses contenus :

2) Copyright : Donor grant an irrevocable nonexclusive licence to the library for such rights as the Donor has the right to transfer or licence under the Twitter Terms of Service in place at the time of the gift or before. The current, as of the effective date, and previous Terms of Service are appended.

Twitter utilise en effet ses CGU (Conditions Générales d’Utilisation) pour revendiquer un droit d’auteur (copyright) sur les contenus produits par ses usagers :

You retain your rights to any Content you submit, post or display on or through the Services. By submitting, posting or displaying Content on or through the Services, you grant us a worldwide, non-exclusive, royalty-free license (with the right to sublicense) to use, copy, reproduce, process, adapt, modify, publish, transmit, display and distribute such Content in any and all media or distribution methods (now known or later developed).

C’est cette licence  – royalty-free license (with the right to sublicence) – que Twitter met en œuvre dans sa convention de don à la LoC et qui lui confère juridiquement sa qualité de Donor.

Le problème, c’est qu’on peut sérieusement se demander si cette chaîne de concessions est valide et comment Twitter peut revendiquer un droit sur ses contenus, si les utilisateurs eux-mêmes ne possèdent pas réellement de droit d’auteur sur leurs propres tweets…

C’est une aporie que j’avais déjà relevée l’année dernière, lorsque les CGU de Twitter ont changé et que le petit oiseau bleu est subitement devenu plus agressif vis-à-vis de ses utilisateurs.

En effet, à l’origine (souvenez-vous !), Twitter ne revendiquait aucun droit de propriété intellectuelle sur ses contenus et incitait même ses utilisateurs à les verser dans le domaine public :

Copyright (What’s Yours is Yours)

1. We claim no intellectual property rights over the material you provide to the Twitter service. Your profile and materials uploaded remain yours. You can remove your profile at any time by deleting your account. This will also remove any text and images you have stored in the system.

2. We encourage users to contribute their creations to the public domain or consider progressive licensing terms.

J’estime pour ma part que les nouvelles CGU de Twitter n’ont pu avoir pour effet de changer la nature de son contenu, et que celui appartenait et appartient toujours, dans sa plus grande partie, au domaine public.

Dès lors, le fondement même de la convention de don à la LoC me paraît douteux, et même préjudiciable, puisqu’il entérine le geste d’appropriation que Twitter a opéré vis-à-vis des contenus produits par ses utilisateurs, avec l’aval de la Bibliothèque.

Certaines analyses estiment que Twitter a manqué aux obligations qui le liaient avec ses utilisateurs, mais que la Bibliothèque, de son côté, n’avait nullement besoin de cette convention de don pour archiver le contenu de Twitter. La loi américaine sur le dépôt légal permet en effet à la LoC de collecter toutes les formes de publication. Elle dispose déjà d’ailleurs d’une archive du web, constituée par des captures de sites.

Patrimoine public contre vie privée ?

D’autres voix se sont élevées aux États-Unis pour contester à Twitter la faculté de donner ainsi ses archives à la Bibliothèque, mais cette fois au nom du respect de la vie privée (ici, ou ).

L'archive de Twitter est une véritable mosaïque de données à caractère personnel (Twitter Follower Mosaic. Par Jeolaz. CC-By-NC-ND. Source : Flickr)

Fred Stutzman, sur son blog, se livre ainsi à une intéressante interprétation restrictive des CGU de Twitter :

[...] as long as your content is on Twitter, Twitter can do what they want with it. Fine. But what if you remove your content from Twitter? Wouldn’t Twitter’s licensing of your content to the LoC also expire? Twitter needs to address exactly how we can pull our content out of the archive when we want.

A broader question is why Twitter didn’t just build this as an opt-in service. Or even, less preferably, an opt-out service. Is the collection so important that it is worth compromising user privacy ? I’ve got a feeling that there are certain assumptions around “public” content and the feel-good vibe of the Library of Congress that led to a lack of critical thinking about the implications of this move.

On touche ici à des questions qui mêlent à la fois la propriété sur les contenus et le respect de la vie privée, d’une manière qui fait penser au débat sur le droit à l’oubli ayant lieu actuellement en France.

Beaucoup d’utilisateurs américains se sont inquiétés par exemple que les tweets de comptes privés puissent être consultables à la LoC, de la même façon que les Direct Messages, qui ne sont pas réellement “publiés sur Twitter”, au sens de “rendus publics”. La question reste entière également pour les données de géolocalisation. Il semblerait par contre que les informations des profils personnels, ainsi que les tweets annulés ne feront pas partie de l’archive.

La question de l’opt-out est aussi déterminante : les utilisateurs qui annulent leurs comptes sur Twitter pourront-ils aussi exiger le retrait de leur message de l’archive consultable à la LoC ? Pourront-ils effectuer des retraits ciblés de certains de leurs messages seulement et comment ?

Dans son interview, la responsable de l’archivage numérique de la Bibliothèque laisse entendre que cet opt-out est une question qui concerne Twitter et ses usagers et pour laquelle la Bibliothèque ne souhaite pas jouer le rôle d’un intermédiaire. Elle indique également que la Bibliothèque envisage d’anonymiser les contenus pour éviter toute atteinte au respect de la vie privée, travail que l’on imagine titanesque sur 10 milliards de tweets !

Un don asymétrique

Un autre aspect de la convention de don qui me paraît encore plus contestable est celui des conditions d’accès qui ont été imposées par Twitter à la LoC.

Une période d’embargo de six mois a été instaurée avant que la Bibliothèque puisse donner accès aux contenus déposés par Twitter. La justification de ce délai n’est pas des plus claires. On imagine peut-être que Twitter ne souhaite pas que l’archive de la LoC devienne un Twitter bis. Cela dit, il y a tellement de services tiers qui reprennent ses contenus par le biais de son API que cette précaution paraît un peu dérisoire. On peut lire ailleurs que ces six mois permettraient aux utilisateurs de procéder au retrait de certains de leurs tweets sur leurs comptes, pour mettre en œuvre une forme d’opt-out.

Des restrictions d’usages assez fortes figurent également dans la convention : l’archive pourra être utilisée en interne par la Bibliothèque pour ses propres besoins et un accès pourra être donné dans ses emprises aux chercheurs habilités, après avoir signé un engagement de ne pas faire un usage commercial des contenus. La LoC ne pourra pas redistribuer l’archive à des tiers dans sa totalité ou une partie substantielle de celle-ci (même pas à Hathi Trust ?).

L’accord permet cependant à la LoC de diffuser sur son site, au terme des six mois d’embargo, des éléments de l’archive, à condition de bloquer l’indexation par les moteurs de recherche (robots.text file) et d’empêcher le téléchargement substantiel de contenus.

À lecture de ces conditions, j’ai éprouvé une sensation très désagréable, car elle me rappelle beaucoup celles que Google impose à ses bibliothèques partenaires dans le cadre du programme Google Books, notamment l’exclusivité d’indexation. Cela signifie que, même accessible en ligne, cette archive de la Bibliothèque restera quasiment invisible sur le web.

Et le parallèle est d’autant plus saisissant que dans le même temps, Google a effectivement mis en place, certainement au terme d’un accord avec Twitter,  son propre service de recherche dans les archives des tweets, Google Replay. Celui-ci sera entièrement accessible en ligne, sans la restriction des six mois d’embargo, et bien entendu, il figurera dans les résultats du moteur (et dans ceux de ses concurrents ?). Sans compter que Google n’a pas l’air de beaucoup s’embarrasser de son côté des questions de protection des données personnelles…

Encore une fois, on voit naître une situation asymétrique entre l’usage que les institutions publiques pourront faire des contenus, alors même qu’elles en assureront la préservation à très long terme, et l’usage (devrais-je dire l’exploitation…) que pourront en faire les acteurs privés. Ici encore, j’ai envie de parler d’une forme d’eugénisme documentaire qui s’organise par le biais de telles restrictions contractuelles, et ce (et c’est le plus grave !) avec l’accord des bibliothèques.

Oeuvres de l'esprit, informations, UGC, données personnelles, domaine public... le contenu de Twitter échappe aux catégories établies (Twitter. Par respres. CC-BY. Source : Flickr)

Encore et toujours, le véritable enjeu, c’est l’accès à l’information et la préservation du domaine public. Comme je l’ai dit, les tweets ne sont pas dans leur immense majorité des contenus protégés par le droit d’auteur. Il s’agit d’informations et de données qui ne devraient pas faire l’objet de telles restrictions. Twitter d’ailleurs ne possède certainement pas de titre valide pour imposer ces limitations à la LoC, si ce n’est celui qu’il tire, de manière fort douteuse, de ses CGU.

Et le pire, c’est que les restrictions imposées par la convention de don sont valables perpétuellement, sans limitation de durée…

Rien n’est plus faux que de dire que cet accord entre Twitter et la LoC permet de constituer ses archives en un patrimoine qui pourra être préservé pour le futur.

C’est tout le contraire qui se produit : ce qui est préservé pour l’éternité, c’est l’acte d’appropriation que Twitter a accompli l’année dernière sur les contenus produits par ses usagers. Ces contenus seront peut-être conservés dans leur intégrité par la LoC, mais ils ne pourront jamais regagner le domaine public.

C’est exactement la même contradiction qui entache les accords signés entre les bibliothèques et Google à propos de la numérisation du patrimoine écrit.

Pour ma part, j’avais choisi de placer tous mes tweets sous la licence Creative Commons Zéro (CC0), grâce à l’application TweetCC. Cette licence me permet de certifier que je renonce à tous mes droits sur mes tweets et que je les verse au domaine public, sans aucune restriction.

C’est par un tweet que j’ai manifestée cette volonté, à laquelle j’accorde beaucoup d’importance.

Ce tweet est désormais quelque part enfoui dans l’archive de la LoC… éternelle lettre morte…

Billet initialement publié sur :: S.I.Lex :: sous le titre “Twitter archivé à la Bibliothèque du Congrès : un patrimoine impossible ?”

Photo CC Flickr bbluesman

]]>
http://owni.fr/2010/05/12/twitter-limpossible-archivage/feed/ 8
Twitter: un patrimoine superflu(x) ? http://owni.fr/2010/05/12/twitter-un-patrimoine-superflux/ http://owni.fr/2010/05/12/twitter-un-patrimoine-superflux/#comments Wed, 12 May 2010 12:44:25 +0000 Olivier Ertzscheid http://owni.fr/?p=15354 Ce billet – un peu long – vise à étudier une actualité, l’annonce de l’archivage de l’intégralité du service Twitter par la bibliothèque du Congrès (LoC), et à poser un questionnement sur ce que la nature même de ce type d’archivage change dans notre rapport à une mémoire “collective” et peut être même à la mémoire … tout court. Le lecteur est averti que les questions soulevées sont beaucoup plus nombreuses que les réponses apportées. C’est parti :-)

1537. Par un édit en date du 28 décembre 1537, François 1er “invente” le dépôt légal, qui permettra – beaucoup plus tard tout de même – d’assurer un contrôle bibliographique universel.

1996. Les pionniers. Une fondation américaine, l’Internet Archive se lance la première dans une tâche d’allure sysiphéenne, l’archivage d’Internet. Un archivage accessible via la machine à remonter le temps du site, la “wayback machine“. Des milliards de pages web et des millions de documents multi-supports y sont accessibles.

2001. L’éveil. Dans un texte de 2001 lors d’un colloque à la BPI**, alors que l’on évoquait le rôle des bibliothèques à l’heure d’une numérisation dépassant à peine le stade de l’artisanat, on posa l’expression et la problématique de la conservation d’un “patrimoine du temporaire”. Expression à bien y regarder pas si oxymorique que cela.

**Bibliothèque publique d’information (texte collectif), « Babel ou le choix du caviste : la bibliothèque à l’heure du numérique. », in Colloque virtuel « Text-e » de la BPI Georges Pompidou. Année 2001. Hélas plus en ligne … http://www.text-e.org/

============T=W=I=T=T=E=R=============
==> Mars 2006. Lancement d’un site de micro-blogging baptisé Twitter. Son principe : la diffusion de messages de 140 caractères. Il rencontrera le succès qu’on lui connaît aujourd’hui.

==> Février 2010. Twitter “publie” chaque jour plus de 50 millions de “messages”.

==> 4 Mars 2010. Le cap des 10 milliards de tweets est franchi.
===========T=W=I=T=T=E=R=============

1er août 2006. Le – tardif – réveil. La loi française étend à Internet le principe du dépôt légal. Toutes les bibliothèques s’y mettent avec plus ou moins de bonheur, plus ou moins de transparence.

23 juin 2009 : La BnF donne quelques chiffres sur le dépôt légal Internet depuis 1996 : plus de 13 milliards de fichiers sont disponibles, organisés en collections mais hélas uniquement consultables sur place et avec une accréditation … alors qu’au moins une partie du dépôt légal Internet de la bibliothèque du Congrès est librement accessible et consultable en ligne.

“PATRIMOINE DU TEMPORAIRE”. La mission et le réflexe patrimonial des bibliothèques ou des archives a donc permis de relever le défi posé par le passage massif au numérique. Au-delà des seuls “documents numériques”, la “sphère Internet” est également entrée dans un cycle de préservation à long terme. Il semble aujourd’hui évident pour tout le monde que la préservation d’une “archive de l’Internet” est au moins aussi importante que celle de manuscrits anciens ou des premières traces d’écriture. Il n’est pas inutile de rappeler qu’au tout début des années 2000, en France, ce combat là paraissait encore… très loin d’être gagné ! Mais à l’échelle de l’histoire de la conservation des supports et des savoirs, le patrimoine du temporaire évoqué en 2001 n’aura mis que quelques années à trouver sa justification et son ancrage dans les pratiques de conservation de notre civilisation.

14 avril 2010 : une dépêche AFP tombe, indiquant que la bibliothèque du Congrès (LoC) “accueillerait les milliards de messages postés sur le site de microblogs Twitter depuis son lancement en mars 2006.” L’annonce est simultanément faite sur le blog de la LoC.

PATRIMOINE DU SUPERFLU. Pourquoi archiver la totalité de Twitter ???

Les raisons de cet archivage peuvent être résumées en une phrase, extraite de la Foire Aux Questions mise en ligne très peu de temps après cette annonce par la LoC :

  • The Library of Congress collections include items such as the very first telegram ever sent, by telegraph inventor Samuel F.B. Morse, oral histories from veterans and ordinary citizens, and many other firsthand accounts of history.

Du côté du premier public de cette nouvelle archive numérique, on trouve naturellement des historiens. Historiens pour lesquels :

  • “Most of our sources are written after the fact, mediated by memory — sometimes false memory,” Ms. Taylor said. “And newspapers are mediated by editors. Tweets take you right into the moment in a way that no other sources do. That’s what is so exciting.”

L’article du NYTimes d’où est extraite la citation précédente fait également remonter des avis plus nuancés, notamment au regard des questions de “vie privée”. Pour évacuer d’un seul trait l’ensemble des aspects polémiques autour de cette annonce, précisons que :

  • la LoC n’a rien payé (il s’agit d’un don de la société Twitter)
  • que ne seront légués que les tweets des comptes publics
  • qu’il y aura une barrière de six mois (minimum) entre la date de publication du tweet et son “versement” dans les archives de la LoC pour une exploitation ultérieure.

Sur l’ensemble des questions précédentes, il vous faut à tout prix lire le billet de Lionel Maurel sur le “patrimoine impossible” que représente cet archivage de Twitter.

Mémoires documentaires externalisées. Depuis qu’elles existent, l’ensemble des techniques de “la documentation” ont eu pour objet de rendre d’abord plus efficace/efficiente puis plus massive, systématique et transparente l’externalisation de nos mémoires documentaires. En décidant d’archiver l’ensemble de ce flot conversationnel qu’il faut bien qualifier de mémoire immédiate, la bibliothèque du Congrès fait faire un pas de plus à l’archivistique dans son ensemble. À tout le moins elle en étend le périmètre. A moins qu’elle ne le redéfinisse entièrement.

Pour bien comprendre les “vraies” raisons de cette conservation patrimoniale d’un nouvel ordre, d’une nouvelle nature, il faut lire le rapport final du “Blue Ribbon Task Force on Sustainable Digital Preservation and Access” (= groupe de travail sur les politiques publiques de conservation et d’accès numérique), groupe de travail à l’initiative duquel on trouve la NSF et la fondation Mellon en collaboration avec la Bibliothèque du Congrès, JISC, le CLIR et les Archives nationales US. Je m’en tiendrai aux passages synthétisés et traduits par Jean-Michel Salaün dans son billet “Économie de la conservation numérique” :

  • 1. La demande pour une conservation numérique est une demande dérivée. Autrement dit, la demande n’est pas directe, on ne conserve pas pour conserver, mais pour donner accès à l’avenir à des informations numériques.

C’est bien ce qui s’est produit avec Twitter. La demande n’émane pas des créateurs du service, pas davantage que des usagers de la bibliothèque du Congrès.

  • 2. Les matériaux numériques sont des biens durables dépréciables. Un bien durable dépréciable est quelque chose qui dure longtemps en produisant de la valeur continuellement, mais la qualité et la quantité de cette production peut décliner si des actions ne sont pas engagées pour maintenir la viabilité ou la productivité du bien. (..)

Twitter est certes un bien durable dépréciable… les deux derniers qualificatifs étant directement indexés sur sa capacité à trouver un modèle économique dans les prochains mois.

  • 3. Les biens numériques sont des biens non-rivaux et autorisent les passagers clandestins. Les biens numériques sont des biens non-rivaux, car il suffit qu’un acteur conserve un bien, il l’est pour toute intention ou objectifs conservé pour tous. Dans ces circonstances, l’incitation pour un seul acteur à assumer les coûts de la conservation est affaiblie, puisque les autres pourront profiter gratuitement des bénéfices.

Twitter (la société) peut dès lors légitimement jouer les “passagers clandestins” puisqu’il n’aura pas à assumer le coût de la conservation …

  • 4. La conservation numérique est un processus dynamique qui dépend du chemin suivi. Cette caractéristique est la plus originale et la plus spécifique au numérique et donc la plus intéressante. Dans l’analogique, le processus de conservation venait en fin du cycle de vie du bien, c’est-à-dire à la dernière étape du circuit classique de création-production-diffusion. Dans le numérique, chaque étape peut influer sur le processus de conservation et celui-ci implique des décisions à chaque stade.

Revenons-en maintenant à la question initialement posée : pourquoi archiver la totalité de Twitter ? Aucune bibliothèque n’archive la totalité des sites web produits. Elle effectue un nécessaire travail de sélection : sites des événements sociaux ou politiques marquants (élections par exemple), sites de personnalités publiques importantes, etc., avec une difficulté supplémentaire dès que l’on sort de l’information “institutionnelle” : quels blogs archiver ? Selon quels critères ? En fonction de quels paramètres de choix ?

Il est deux raisons d’être à la science de l’archivistique : l’obligation et le choix. L’obligation d’archiver des supports arrivés à la fin de leur cycle de vie et le choix des “items documentaires” qui, parmi l’ensemble de ces supports en fin de cycle, sont dignes d’intérêt ou recouvrent une certaine “valeur”.

Alors pourquoi archiver la totalité de Twitter quand on peut, dans les blogs, les forums, les sites web individuels, les “murs” Facebook, etc., quand on peut, disais-je, aller puiser partout ailleurs des éléments qui, pour reprendre l’argumentaire de la tribune des historiens dans le NYTimes, ne sont pas encore “médiés” par une activité mémorielle ?

Les trois (vraies ?) raisons. Il y a – à mon avis – trois raisons profondes à l’archivage de la totalité de Twitter ; trois raisons qui ne sont pas inscrites dans la foire aux questions dédiée. Trois raisons auxquelles j’en ajoute subrepticement une quatrième : le buzz :-) La LoC est passée maître dans les stratégies de communication en tout genre et il est clair que cet archivage du service médiatiquement le plus en vue actuellement aura, en termes d’image, de substantielles retombées.

Primo : la simplicité. Il est beaucoup plus simple de prendre, en vrac, la totalité de l’archive twitterienne que de l’investiguer pour y effectuer un travail de sélection en amont. On prend tout et on effectuera plus tard l’indispensable travail de tri pour isoler – par exemple – les tweets des personnalités politiques, tel ce Tweet d’Obama au soir de son élection historique.

Deuxio : le graphe social. L’archive de Twitter ainsi constituée permettra  – à des chercheurs, sociologues, historiens – de reconstituer le graphe relationnel de chaque individu choisi. Ainsi on peut lire dans l’article du NYTimes que :

  • Each message is accompanied by some tidbits of supplemental information, like the number of followers that the author had at the time and how many users the author was following. While Mr. Cohen said it would be useful for a historian to know who the followers and the followed are, this information is not included in the Tweet itself.

Il ne serait donc possible que de compter le nombre de comptes suivis (“following”) ou de comptes suiveurs (“followers”) pour un utilisateur donné. Sauf que. Sauf que c’est oublier un peu vite que le “vrai” graphe relationnel d’un utilisateur est également matérialisé à l’intérieur même de ses tweets, notamment grâce au symbole “@” qui, lorsqu’il est suivi d’un nom d’utilisateur de Twitter, permet de s’adresser à lui directement. Ainsi, en épluchant à l’aide d’un algorithme les “@” de n’importe quel compte Twitter archivé, il est très facile de reconstituer son réseau relationnel, au moins dans son premier cercle de proximité (les gens auxquels on s’adresse le plus et/ou qui s’adressent le plus à nous). Donc c’est bien l’archivage “d’un” graphe social d’une petite partie de l’humanité connectée qui sera ainsi “en mémoire” à la bibliothèque du Congrès. Si ce n’est déjà fait, j’insiste une nouvelle fois pour que vous alliez lire le billet de Lionel Maurel, eu égard aux considérables questions de vie privée ainsi posés … Par ailleurs, comme le démontre ReadWriteWeb, le nombre d’informations “embarquées” dans un tweet n’est pas, loin s’en faut, réductible à une chaîne de 140 caractères …

Tertio : l’archive elle-même. Si la LoC s’intéresse à Twitter, un service qui, à l’échelle du web et indépendamment de son incontestable succès reste encore très jeune (moins de quatre ans d’existence) et dont rien ne permet de dire qu’il sera ou non pérenne sous sa forme actuelle (il peut être racheté, absorbé, décliné de manière radicalement différente à ce qu’il est actuellement, ou bien encore disparaître), si la LoC s’intéresse à Twitter, à la totalité de Twitter, c’est parce dans cette totalité transparaît l’essence même de l’objet documentaire idéal. Twitter comme un parangon de la documentation et de l’archivistique numérique. Voici pourquoi. Twitter a valeur de contexte et d’illustration. Contexte et illustration du monde (réel) dans lequel il s’inscrit et qu’il vient précisément documenter, dont il atteste de chacun des mouvements importants ou accessoires, un monde dont il est le témoignage, la valeur de preuve, la trace mémorielle immédiate. Il est en même temps un objet documentaire suffisant (il se suffit à lui-même, il peut-être analysé pour lui-même) et épuisant (le nombre de possibilités d’exploitations qu’il autorise ne peut être rapidement “épuisé”). Enfin, il est porteur de ramifications identifiables et externalisées : les liens contenus dans les tweets, qui, à leur tour, permettent de documenter à nouveau le cadre énonciatif dans lequel ils s’inscrivent.

Et donc ? Et donc il y a quelque chose que je n’arrive pas exactement à cerner – sinon j’aurai fait un billet beaucoup plus court ;-) -  mais qui me gêne profondément dans cet archivage de Twitter, au-delà même du débat – déjà assez gênant – sur la notion de confidentialité, de vie privée et de droit à l’oubli. “Les collections de la bibliothèque du Congrès regroupent des documents comme le tout premier télégramme envoyé, par l’inventeur du télégraphe Samuel F.B. Morse (…) et plein d’autres documents de première main“. Oui mais le premier télégramme de Samuel Morse n’a rien à voir avec le premier tweet d’Obama. D’abord parce qu’à la différence de l’invention du télégraphe, Twitter n’est pas une rupture technologique. Ensuite parce que la valeur historique du premier télégramme de Samuel Morse lui a été conférée… par l’histoire ! (même s’il est effectivement permis de supposer que Samuel Morse, en l’envoyant, avait conscience du moment historique, mais bon on va pas non plus chipoter, sinon j’arriverai pas à finir ce billet)

CGU du 3ème type. Ne faudrait-il pas désormais modifier en conséquence les CGU (conditions générales d’utilisation) de Twitter ? Mis à part des comptes “privés” (qui ne seront donc pas archivés), la nature d’un compte “public” me semble radicalement changer selon qu’il a vocation à être diffusé “publiquement sur le web” ou bien “conservé six mois après sa publication et accédé indéfiniment dans le cadre des archives de la bibliothèque nationale des États-Unis à des fins d’étude et de recherche“. Si c’est pour être disséqués dans les prochains siècles par des sociologues et historiens en tout genre, je vais peut-être hésiter à deux fois avant de poster des tweets sarcastiques ou graveleux sur l’actualité du Top 14 ou de la coupe d’Europe de rugby …

Par-delà. Imaginez un instant les annonces suivantes. “La bibliothèque du Congrès annonce qu’elle archivera l’intégralité des comptes Facebook”. Ou alors celle là : “La Bibliothèque nationale de France annonce qu’elle archivera l’intégralité des comptes publics FlickR et l’ensemble des photos qui y sont jointes.” Et expliquez-moi en quoi des photos en disent plus sur nous que nos conversations sur Twitter ? Pourtant on peut aisément deviner le tollé que susciteraient de telles annonces.

Avons-nous encore besoin d’archives publiques ? Dans un monde ou le cloud computing grignote le périmètre de l’archivistique, la réponse est naturellement oui. Oui parce que les archives publiques ont une vocation patrimoniale et pérenne qu’aucune société commerciale présente dans les nuages n’acceptera jamais d’assumer et/ou de porter. Oui mais non. Non si l’on se place un instant du côté de l’usager lambda lequel est en permanence connecté à des archives, en permanence connecté à l’archive perpétuelle de sa propre documentation, de ses propres documents, et de ceux des autres, de tous les autres. La question doit peut-être être posée autrement.

Avons-nous encore besoin de construire des archives alors même que nous sommes en permanence immergés dans une archive immédiate, co-construite et suffisamment pérenne à notre échelle individuelle ? :

  • Par archive, j’entends d’abord la masse des choses dites dans une culture, conservées, valorisées, réutilisées, répétées et transformées. Bref toute cette masse verbale qui a été fabriquée par les hommes, investie dans leurs techniques et leurs institutions, et qui est tissée avec leur existence et leur histoire.” Michel Foucault, Sur l’archéologie des sciences (1968)

Mémoires. Cycles courts contre temps longs. Avant, on “déclenchait” un processus d’archivistique documentaire soit au moment ou un document parvenait en fin de cycle de vie, soit au moment ou sa valeur historique était attestée ou signalée comme valant la peine d’être conservée. Avec l’archivage de Twitter, aucune de ces deux conditions n’est remplie. Or si l’on entreprend d’archiver de manière systématique, globale, des silos documentaires avant même qu’ils ne remplissent l’une ou l’autre de ces deux conditions, on risque d’entrer dans un cycle de (re)production mémorielle inédit.

On va produire de la mémoire sur de l’excès au lieu d’en produire pour répondre à un manque. On va créer de la mémoire sur de la mémoire. Alors que depuis des siècles, on avait appris à créer de la mémoire sur de l’oubli. Plus précisément, on avait appris à créer de la mémoire pour pallier l’oubli.

Destin funeste de Funès. Cette mémoire qui n’alimente qu’elle-même, cette hypermnésie dont souffrait le Funès de Borges, à l’échelle des institutions par nature dépositaire de notre mémoire commune, se double d’une autre course folle : celle des individus eux mêmes englués dans des cycles mémoriels à la fois de plus en plus courts, de plus en plus instantanés, mais aussi de plus en plus denses, de plus en plus externalisés, de plus en plus rémanents. Après avoir inventé le droit à l’oubli numérique, le devoir d’inventaire de notre génération d’hypermnésiques compulsifs devra-t-il instaurer un simple droit au vide, un simple droit au non-dit, au non-inscrit, au non-rémanent ? Une législation de l’éphémère pour s’éviter les affres d’un patrimoine du temporaire ?

  • J’ai à moi seul plus de souvenirs que n’en peuvent avoir eu tous les hommes depuis que le monde est monde. Mes rêves sont comme votre veille. Ma mémoire, monsieur, est comme un tas d’ordure. (…) Il avait appris sans effort l’anglais, le français, le portugais, le latin. Je soupçonne cependant qu’il n’était pas très capable de penser. Penser c’est oublier des différences, c’est généraliser, abstraire. Dans le monde surchargé de Funes il n’y avait que des détails, presque immédiats.” Jorge-Luis Borges, Fictions – Funes ou la mémoire – Traduction P. Verdevoye ; Folio.

Le palimpseste interdit. Après les technologies du faire, après celles de l’intelligence, après celles de l’accès, la période actuelle est celle des industries de la capillarité et de la percolation. Industries dont l’archive est le nouveau cheval vapeur. Au-delà même de l’archivage de Twitter par la LoC, l’engrammation permanente risque d’empêcher à terme, le travail mémoriel authentique, lequel s’inscrit nécessairement dans la distance, dans le manque, et, pour partie, dans l’oubli préalable.

Le web se constitue est d’ores et déjà constitué comme un immense paratexte mémoriel que rien n’enfreint et que nul n’autorise ; un immense paratexte mémoriel que rien n’autorise et que nul n’enfreint ; et qui se déroule simplement. Un palimpseste sur lequel tout recouvrement est illusoire tant chaque strate reste indéfiniment accessible à qui le souhaite. La négation même du palimpseste comme recommencement possible.

A cela il me semble qu’il faut être vigilants. Non pour l’interdire, le dénoncer ou alimenter le courant d’un nouveau luddisme mémoriel. Mais pour… s’en souvenir le temps venu. Nos vies, notre mémoire.

Billet initialement publié sur Affordance.info

Illustrations CC Flickr edu_fon ; The Wren Design ; Desmond Kavanaghjurvetson ; grande une Trois Têtes (TT)



]]>
http://owni.fr/2010/05/12/twitter-un-patrimoine-superflux/feed/ 3
Fermeture imminente http://owni.fr/2009/10/18/fermeture-imminente/ http://owni.fr/2009/10/18/fermeture-imminente/#comments Sat, 17 Oct 2009 23:44:17 +0000 Alexandre Léchenet http://owni.fr/?p=4703 > Il existe des sites où on peut lire “Dernière mise à jour: 19 juillet 2003.” ou “UPDATE (11/27/2000)“.

> Il existe des sites qui affichent fièrement un compteur dont le nombre est battu par la moindre vidéo de ma grand-mère sur Youtube.

> Il existe des sites dont le titre est “Socio-Political Themes in The Smurfs

> E-mail GeocitiesIl existe des sites qui nous donnent des conseils sur les e-mails en précisant “Attention: ces conseils sont adaptés à l’usage du logiciel Messenger de Communicator 4 de Netscape.” tels que “Blague à part, ce distinguo est utile à connaître lorsque – ce qui arrive dans les entreprises – une même adresse est utilisée par différentes personnes.

> Il existe des gens qui donnent leur e-mail de manière intelligente, pour déjouer les spammeurs, déjà et qui le font en l’écrivant sur un papier et en le scannant, ou en l’explicitant : “C’est mon nom (Pierre Guertin) inscrit de reculons, avec 2000 au bout (l’année de sa création).

> Il existe des sites où Claude Allègre a déjà imprimé sa marque. Même s’il n’a pas encore donné son avis. Des sites où des gens déclarent “As I said, I don’t know enough to say there is or isn’t global warming. My sense is that if it is happening, it is part of a natural fluctuation and we will just have to adapt like humans have been for thousands of years.

> Il existe des sites qui proposent de boycotter Nike.

> Il existe des sites contenant une centaine de trains différents au format .gif
Train 1 GeocitiesTrain 2 GeocitiesTrain 3 Geocities

> Il existe des sites avec des menus illisibles
Star Wars Geocities

> Il existe des sites remerciant d’autre sites que nos jeunes amis internautes ne connaissent pas et dont nous ne nous souvenons que vaguement.
Moteurs Geocities

> Il existe des sites qui ressemblent à des vieux sites, mais qui indiquent des dates de 2009 ou 2010 : “Sept 19: New officers elected. Membership fee raised to $18/$30, effective Feb 2010.

> Il existe des sites appelés “Horrifiants” dont le titre est “ILS . BRÛLENT . EN . ENFER . PAR . TOUTE . L’ÉTERNITÉ” qui nous déclarent : “LE SEXE GAY, LE SEXE LESBIQUE, ET TOUTE PRATIQUE HOMOSEXUELLE ATENTE CONTRE LES MANDATS BIBLIQUES. CETTE PAGE EST UN AVERTISSEMENT À TOUS LES PÉCHEURS SUR LES CONSÉQUENCES HORRIFIANTES DE L’ACTIVITÉ HOMOSEXUELLE, SODOMITIQUE, LESBIQUE, CONTRE NATURE OU ANORMALE.”


Enfin, tous ces verbes sont à conjuguer au passé, car Geocities ferme dans une semaine. Et tous ces sites vont fermer avec lui. Geocities organisait ces sites dans des quartiers, en fonction des thèmes. Comme l’explique si bien Let It Bi :

WestHollywood Heights étant le quartier de la communauté LGBT, c’est la raison pour laquelle Let It Bi “habite” au 3537 WestHollywood Heights d’où l’adresse du site http://www.geocities.com/WestHollywood/Heights/3537.

Laissons donc le dernier mot à Let It Bi : “Geocities ferme le 26 octobre prochain. Du coup, l’aventure Let it Bi, s’arrête aussi ! Au revoir !

de nombreuses images glanées sur geocities peuvent être vues sur http://internetarchaeology.tumblr.com/, billet publié initialement sur misc.alphoenix.net

]]>
http://owni.fr/2009/10/18/fermeture-imminente/feed/ 4