Dur dur d’être une chaîne de télé en France. Outre la course au renouvellement (et à la sainte audience) perpétuelle, voilà le PAF qui se fait méchamment boulotter par des outsiders. Hier, c’était double lame : premiers pas de D8, feu Direct 8, doté d’un gros budget de 120 millions d’euros annuels, mais aussi lancement, plus discret et sans Roselyne Bachelot certes, de 13 chaînes thématiques françaises sur YouTube. Doctissimo, le groupe AuFeminin (dont le site Marmiton) ou encore l’agence Capa : beaucoup d’acteurs du web mais aussi quelques producteurs de contenus qui s’improvisent chaînes de télévision. Mais sur Internet.
A l’heure où les Cassandre, Pierre Lescure et ministre de la Culture en tête, redoutent une arrivée dévastatrice d’écrans connectés pourtant bien présents dans nos salons depuis le début du Net, ne serait-ce pas plutôt l’arrivée des e-trublions sur le territoire de la télé à papa qui incarne cette “télé connectée” qui fait trembler politiques, institutions et antennes ?
“YouTube nous permet de faire quelque chose qu’on attend depuis longtemps”, explique Claire Leproust, chargée des développements numériques chez Capa. Le lancement sur le web de programmes via des acteurs du web. Pour le moment, ce n’est pas un big deal qui va nous rapporter grand chose, mais plus un pari sur l’avenir.” TF1, M6 et compagnie n’ont donc selon elle aucun souci à se faire :
C’est une toute petite chaîne ! On n’est pas D8 !
Programmes courts, décalés, sans direct et gratuits, Capa, comme les autres acteurs qui ont suivi YouTube dans l’aventure, ne cherchent pas à se muter en antenne traditionnelle, en reproduisant les formats vus sur le PAF. Mais ne visent pas moins une qualité et un façon de travailler certifiée “comme à la télé”.
“On a la volonté d’apprendre ce qu’est la production vidéo, explique Valérie Brouchoud, présidente de Doctissimo, l’un des plus gros acteurs du web français. On essaie d’obtenir une qualité télé, vous verrez. Je suis très contente de ce qu’on a fait !” Bye-bye passion mohair et autres exotismes du genre qui ont fait le succès du site Doctissimo et de ses incontournables forums ?
Forcément, le ton web et le ton télé ne sont pas les mêmes. On fera quelque chose à mi-chemin, en essayant de garder une proximité très forte avec les internautes, en les recevant dans nos émissions. Après, sur les forums, c’est de la libre expression… Ici, on drivera les émissions…
Sans un regard de Google, ajoute par ailleurs la présidente de Doctissimo : “on reste complètement indépendant sur l’ensemble de nos programmes !” Des programmes répartis entre magazines santé, grossesse, du coaching mais aussi de la fiction, et accessibles dès le 15 octobre prochain. Ils seront produits en interne et au sein de deux boîtes de production.
Un modèle également suivi par Capa, dont l’activité historique est précisément… la réalisation et la production de séries et de magazines pour le compte de chaînes de télévision au sens classique du terme. La société de production devient donc à son tour éditeur de programmes. Ce qui fait rire Claire Leproust :
Oui, on se glisse dans la peau d’une chaîne !
Pour autant, hors de question pour Capa d’abandonner son cœur de métier : l’extension sur le Net ne vient pas rivaliser avec la relation entretenue depuis des années avec les antennes. “On se dit que ce n’est pas demain la veille que l’édition d’une chaîne YouTube sera le Graal, poursuit Claire Leproust. On s’y met parce qu’il faut voir qu’une audience est en train de se constituer sur Internet, avec un comportement qui n’a rien à voir avec celui de l’audiovisuel.” Même son de cloche chez Doctissimo :
J’adorerais devenir une chaîne de télé, mais il est trop tôt pour le dire ! On n’en est pas là. On en est au tout début de l’histoire.
Mais de l’histoire de quoi précisément ? Si les acteurs du web se défendent pour l’instant de vouloir concurrencer le PAF historique, leur démarche s’inscrit bien dans un renouvellement de ce paysage. Chez Doctissimo, sa présidente explique “négocier avec certains acteurs comme Orange pour être présent dans leur box.” Ainsi qu’avec des “équipementiers”. Comprenez par là, “Philips ou LG, afin d’être dans leurs téléviseurs”.
La stratégie de ces nouveaux diffuseurs semble s’inscrire dans l’émergence tant redoutée de la télévision connectée. Ce que reconnaît d’ailleurs Valérie Brouchoud, qui affirme qu’elle “ne voulait pas avoir un train de retard” dans ce domaine. L’enjeu de ce cataclysme audiovisuel annoncé serait donc moins dans la commercialisation et l’adoption d’écran de TV branché au réseau, qui comme l’explique très bien notre chroniqueur Laurent Chemla, trône dans nos salons depuis un bail, mais bien plus l’adoption des acteurs du web et de leurs contenus dans nos écrans. Téléviseurs stricto sensu, poste d’ordinateur, téléphone, tablette entre autres spécimens du bestiaire consacré.
Côté YouTube, on se garde bien aussi d’évoquer une compétition directe avec les antennes françaises. “C’est plus une démarche complémentaire que concurrentielle”, confiait ce matin Christophe Muller, directeur des partenariats YouTube Europe du Sud, de l’Est et Moyen-Orient à Owni. “Ces nouvelles chaînes sont des chaînes thématiques telles qu’il en existe déjà beaucoup sur YouTube. Il n’y a pas de programmes linéaires ou live…” Une grille et du direct, des caractéristiques spécifiques aux chaînes du PAF.
Difficile néanmoins de savoir ce que ces dernières en pensent. Contacté à plusieurs reprises, M6 a précisé ne pas souhaiter s’exprimer sur la question. Et du côté de TF1, on reste tout aussi mutique. Google assure quant à lui discuter avec toutes les chaînes. Même si “le marché français est peut-être plus difficile que les autres”, concède Christophe Muller.
Ce qui est sûr c’est que la plate-forme vidéo du géant américain passe la vitesse supérieure. Certes, comme le rappelle son représentant, cela fait un bail que YouTube permet à ses utilisateurs la création d’espaces thématiques. “Nous avions déjà un embryon de chaîne sur YouTube”, rappelle d’ailleurs la présidente de Doctissimo. Des chaînes telles que BFM TV ou Direct 8 travaillent également déjà avec YouTube, précise de son côté Christophe Muller, qui concède néanmoins : “pas toutes, certes…”
Ce qui change aujourd’hui, c’est la volonté du géant de Mountain View de contribuer à la création. YouTube participe en effet au financement des chaînes en leur offrant une avance sur les recettes publicitaires. On avance une fourchette comprise en 10 000 et 100 000 euros par chaîne. Impossible néanmoins de connaître le détail des versements, qui fait partie des clauses du contrat : Capa et Doctissimo n’ont pas voulu en dire plus, même si ce dernier confirme se situer quelque part dans cet intervalle. Une fois l’avance remboursée, ces mêmes gains seront distribués entre YouTube et les chaînes, selon le système de répartition mis en place à l’internationale par la plate-forme.
Un système qui n’est pas sans rappeler celui, historique, du Centre national du cinéma et de l’image animée (CNC) : l’avance sur recettes, remboursée par les résultats d’exploitation des films soutenus par le Centre. “Vous n’êtes pas la première à me le dire, sourit Christophe Muller. Après, pour être parfaitement honnête avec vous, cette initiative est partie des États-Unis, donc il est difficile de dire que c’est une copie du système du CNC. Tout est parti d’une question : ‘Que peut-on faire, en tant que YouTube, pour stimuler la création ?’”
Une volonté qui vaut pour le monde entier. Lancée il y a près d’un an aux États-Unis, la création de chaînes sur YouTube touche aujourd’hui l’Allemagne, la Grande-Bretagne et la France. Et ce n’est pas fini : “nous voulons nous étendre à d’autres pays en 2013″, confirme Christophe Muller. Après la France, voici venue l’ère de l’exception culturelle Googlienne.
Argument-choc d’un CSA qui se cherche à redorer une légitimité ternie, le serpent de mer de la “télévision connectée” est récemment ressorti du marais saumâtre des idées-bateaux, idées imposées par un marketing tout-puissant mais sans imagination.
Même dans les termes, c’est imbuvable : on ne “voit” pas Internet, on l’utilise.
Et on y participe autant qu’on le consomme, bien au-delà de la simple “interactivité” que nos chers diffuseurs cherchent vainement à développer depuis des lustres. La télévision aura beau être reliée à Internet, si elle est une télé-”vision”, elle ne sera pas plus “connectée” qu’elle ne l’est déjà par ondes hertziennes. Tout au plus, elle utilisera pour se diffuser une bande-passante déjà trop rare dans bien des territoires ruraux.
Le principe même de la “diffusion”, d’ailleurs, se prête mal au jeu du réseau.
Les plus grands diffuseurs d’Internet ont besoin d’une infrastructure lourde (CDN), mal adaptée, chère, et qui ne va pas sans poser des problèmes de centralisation (à l’opposé de l’idée même d’un réseau a-centralisé tel qu’Internet) et de partage des coûts entre opérateurs (on le voit dans le conflit entre Google et Free, qui explique les difficultés que connaissent ses abonnés quand ils veulent regarder une vidéo sur YouTube). Quoi qu’on en dise, on n’a — à ce jour — rien trouvé de plus efficace pour broadcaster du contenu que la bonne vieille antenne.
Qu’il me suffise de rappeler, pour en finir au moins temporairement avec cette idée ridicule, que nos futurs écrans 4k nécessiteront un débit de 500 Mbps pour afficher les détails de l’image (le débit moyen d’Internet en France est de 5,6 Mbps). Même la bien balbutiante fibre optique ne permet pas ça, sans même parler du dimensionnement des équipements en amont. Si c’est sur ce futur mort-né que veut se baser notre gouvernement pour justifier la fusion du CSA et de l’ARCEP, c’est dire comme on est mal barrés.
Bref. Pour savoir ce qu’était supposé faire cette chose dont on parle beaucoup mais sans savoir pourquoi, j’ai fait comme n’importe qui et j’ai été lire Wikipedia. Ce dernier propose trois types de service : la navigation, la VOD et les applications (issues d’un App Store ou d’un Google Play) permettant l’interactivité. Quelle vision grandiose.
Il suffit d’avoir joué une fois dans sa vie avec une Wii pour savoir à quel point un pointeur embarqué dans une télécommande – même intelligente – est peu précis. Imaginer utiliser autre chose qu’une souris (ou un doigt) pour “naviguer” sur le Web c’est se le fourrer (le doigt) dans l’oeil. Même les pointeurs laser utilisés pendant les présentations commerciales sont sujets aux tremblements d’une main très peu adaptée à cet usage. Et puis franchement, même avec des lunettes on a déjà tous (sauf moi) du mal à lire une page web quand on a pas le nez collé à l’écran, alors naviguer sur une télé de salon depuis son canapé situé à deux mètres de distance (et à plusieurs)…
Je zappe.
Les applications, donc. Imaginons une émission “interactive” : un diffuseur, des millions de spectateurs, et chacun d’entre eux peut interagir. Pour faire quoi ? Donner son avis ? Vous les imaginez, les millions de tweets qui défilent en bas de l’image pendant le débat entre deux prétendants à la magistrature suprême ? Ridicule. Le seul usage un tant soit peu crédible sera de faire voter le public pour tel ou tel Staracadémiste. Quant à réagir en direct, je me marre : on imagine un clavier (physique ou pas peu importe) et le public qui tape à son rythme de public : le temps qu’il pose sa question, qu’elle soit filtrée par la production et qu’elle sera affichée, on en sera à la pub.
Je zappe.
La VOD (ou la catch-up TV) alors ? Soit, mais laquelle ? Si la grande innovation qui fait peur à toute une industrie consiste à remplacer le loueur de DVD (ou le magnétoscope), je me gausse.
Pourtant la télé connectée existe déjà, mais quoi qu’en pensent les imbéciles qui prédisent la si fameuse convergence (ou qui s’en servent de prétexte à une régulation de la parole publique qu’ils souhaitent depuis toujours), elle ne passe ni par les “players” de nos “box” ni par la Google TV ni par je ne sais quel boîtier blanc (aux coins ronds) designé par Apple. Elle est arrivée depuis longtemps dans nos salons, et nos bureaux, dans une fenêtre comme n’importe quelle autre.
C’est celle que je regarde, de temps en temps, tout en tapant ce texte, et en twittant, et en dialoguant avec mes amis en parallèle. Elle passe par une antenne, puis via mon réseau local elle arrive sur mon écran d’ordinateur. Et lui il a déjà une souris, un clavier, un écran assez proche de mes yeux de presque-cinquantenaire. Son système d’exploitation c’est moi qui l’ai choisi.
Quand la fenêtre “télévision” balance de la pub, je lui coupe le sifflet d’un coup de molette et je passe à autre chose. Quand je veux réagir, je prends le temps de réfléchir et j’en fais un billet de blog. Quand je veux jouer, j’ai un microprocesseur assez puissant pour que ce soit agréable. Et quand le CSA essaiera de contrôler ce que je veux publier, j’utiliserai un VPN pour le contourner.
La télévision connectée existe déjà. Ça s’appelle un ordinateur.
C’est le gros dossier de la rentrée. Ou merdier, c’est selon les versions : le rapprochement envisagé du CSA et de l’Arcep. Deux autorités, deux “gendarmes”, le premier de l’audiovisuel, le second des télécommunications, unies (ou presque) par les liens sacrés de l’Internet. Pour le meilleur et pour le pire.
[Voir notre infographie sur "Les autorités du Net"]
Officiellement, l’affaire est technique. Il s’agit de faire “face à la convergence des infrastructures numériques, des services et des contenus qu’elles acheminent, des réseaux et des services fixes et mobiles, et des terminaux à l’usage du public”, a expliqué un communiqué du Premier ministre Jean-Marc Ayrault en officialisant les proches fiançailles le 21 août dernier.
“A l’heure où les contenus audiovisuels sont de plus en plus diffusés par l’Internet fixe et mobile”, poursuit le chef du gouvernement, il semble indispensable de “s’interroger sur l’efficacité des modes de régulation des communications électroniques et de l’audiovisuel”. Comprenez par là : de les assembler en un pack prêt à l’emploi.
C’est Arnaud Montebourg (redressement productif), Aurélie Filippetti (Culture) et Fleur Pellerin (économie numérique) qui seront chargés de formuler les propositions d’ici novembre prochain. Peu connues pour être sur la même longueur d’onde -reliquats de la présidentielle- les deux femmes semblent pourtant avoir accordé leur violon sur ce dossier. Elles n’ont qu’une seule et même expression aux lèvres : la “télé connectée”, dont l’arrivée imminente donnerait un caractère urgent à la fusion annoncée.
Si on a du mal à saisir le prétexte en vogue de la télé connectée, Internet n’ayant pas attendu les téléviseurs susnommés pour apparaître sur les TV (et vice-versa), l’idée d’une union CSA-Arcep n’est pas absurde. Elle n’est d’ailleurs pas nouvelle : nombre de parlementaires ont déjà proposé la fusion de ces deux autorités, comme le détaille Olivier Laurelli sur son blog. D’autres étaient aussi concernées par ces projets. CSA, Arcep, Cnil, Hadopi… Les autorités du Net se boulottent depuis longtemps déjà leur territoire : Internet n’est pas docile, et s’adapte mal aux desirata rigides des régulateurs (voir l’infographie).
Pour le moment, seuls le CSA et l’Arcep seraient directement concernés par la fusion -quoique, on y reviendra. Elle se justifie en particulier par l’érosion, au fil des années, du territoire du CSA.
Le Conseil est historiquement en charge de l’attribution des fréquences aux télévisions et aux radios. La révolution numérique, comme aiment encore à l’appeler les politiques, a rendu obsolète ces concepts de fréquences et de médias : télévisé ou radiophonique, tout contenu est désormais susceptible de circuler dans les tuyaux du Net. Le CSA l’a bien compris et tente d’élargir ses compétences : depuis 2009, il est par exemple en charge de la diffusion des programmes sur Internet – vidéo de rattrapage et à la demande.
Il n’empêche : le réseau remet en cause l’idée même du CSA, en foutant en l’air tout son modèle de régulation. On pourrait donc s’attendre à ce qu’il soit le parent pauvre de la fusion. Pour beaucoup c’est le cas : le rapprochement signe l’arrêt de mort de l’autorité. A en croire d’autres observateurs néanmoins, c’est l’Arcep qui est mis au pilori. Les piques à peine voilées du Premier ministre en sa direction n’y sont pas pour rien :
[...] les contenus diffusés via internet font l’objet d’une régulation plus limitée et parfois inadaptée.
Une petite phrase qui a officiellement lancé le jeu de dupes, dans lequel le CSA jubile et l’Arcep feint de n’y voir que du feu. Chacun se déclare bien sûr enchanté par l’initiative, mais de façon bien différente.
“J’avais suggéré, le 26 juin, que la préparation d’une loi sur l’audiovisuel soit mise à profit pour engager une réflexion sur l’articulation entre le CSA et l’ARCEP. Je suis heureux que le Gouvernement ait décidé d’entreprendre sans tarder cette réflexion.” a déclaré Michel Boyon, le président du CSA qui n’hésite pas à s’attribuer l’initiative du mariage, quand l’Arcep n’y voit qu’une “évolution de la régulation de l’audiovisuel.” Évacuant au passage de son analyse l’idée pourtant essentielle de “rapprochement” des deux autorités.
Des œillères qui sont depuis longtemps vissées à la tête de l’Arcep. Le gendarme des télécoms ne s’est jamais montré emballé à l’idée de cohabiter avec le CSA. Son président Jean-Ludovic Silicani est d’ailleurs particulièrement chatouilleux sur le sujet. En mémoire, une prise de bec où le conseiller d’État nous avait expédié dans les cordes lors d’une conférence de presse en janvier 2012, commentant :
C’est une question à l’intérêt mineur.
Et d’expliquer que si le rapprochement du CSA et de l’Arcep était acté, il faudrait alors envisager la “fusion des ministères” en charge de la Culture et du numérique, ainsi que les lois et codes qui régissent ces secteurs. Dans le jargon, c’est ce qu’on appelle un troll : les ministres en question, Aurélie Filippetti et Fleur Pellerin, sauront apprécier.
Donner vie à ce serpent de mer de la régulation ressemblerait donc fort à un désaveu. En juin dernier déjà, moins d’un mois après son installation, Arnaud Montebourg s’en prenait violemment à l’Arcep, l’accusant d’avoir fait des choix politiques lors du lancement de Free Mobile. Si Jean-Ludovic Silicani est bel et bien l’homme à abattre, le gouvernement risque fort de trouver un allier de choix du côté des opérateurs.
“Ce soutien des opérateurs à la fusion me semble assez nouveau. J’ai le sentiment qu’il s’agit là bien plus d’une tactique politique que d’une démarche pragmatique, commente Édouard Barreiro de l’UFC Que Choisir. Le régulateur paie, assez injustement d’ailleurs, l’entrée de Free sur le marché [du mobile] et est ainsi désigné responsable des turbulences qu’ils traversent.”
Martin Bouygues n’a d’ailleurs pas tardé à afficher son soutien à l’initiative gouvernementale, taclant l’action de l’Arcep dans le cas Free mobile, comme celle du CSA pour l’attribution de nouvelles chaînes de la TNT. Deux dossiers où les intérêts de l’entrepreneur français sont directement engagés.
Peu de chance donc que l’Arcep sorte indemne de ce mic-mac. Ni Internet d’ailleurs. Gros bonnets comme petites pointures.
Car au-delà des impératifs administratifs, et des revanches politiciennes, l’enjeu de la fusion CSA-Arcep semble bel et bien être la recherche, encore et toujours, de financement pour la création en France.
Ce n’est pas pour rien que Jean-Marc Ayrault a exigé que cette mission soit “coordonnée avec celle conduite par Pierre Lescure sur l’acte II de l’exception culturelle”. Choisi par François Hollande pour démêler l’embrouillamini Hadopi et culture-à-l-heure-du-numérique, l’avis de l’ancien président de Canal+ a été mis dans le même sac que celui de l’Arcep ou du CSA. Décision qui fait dire à certains observateurs qu’Hadopi sera aussi dissoute dans la fusion. Il faut dire que cette dernière partage avec le CSA ou même l’Arcep de nombreuses missions et réflexions (voir l’infographie).
En attendant, Pierre Lescure s’est déjà mis au diapason du gouvernement, agitant à qui mieux-mieux la menace la télé connectée :
Avec la télé connectée, le piratage sera inarrêtable. Dès lors que vous avez votre écran plat, en quatre clics, vous vous pointez sur un site de téléchargement gratuit.
En ligne de mire, Google, Apple et consorts, dont les petits boîtiers qu’ils ambitionnent de connecter à la lucarne de tous les Français font trembler TF1, M6 et Canal+. Le jeu ne se fait pas à armes égales. Car en contrepartie de l’acquisition du précieux droit à émettre remis par le CSA, l’ancien monde du PAF doit s’acquitter de certaines contreparties : respect du pluralisme politique ou bien encore contribution au rayonnement (par la mise en place de quotas) et au financement de la création française. Tribut auquel échappent encore les acteurs du Net. Qu’ils s’appellent YouTube, Netflix ; qu’ils soient des internautes lambda ou pire, qu’ils rentrent dans la catégorie “illégal”.
Le rêve serait donc de parvenir à enfin taxer les grands noms du web américain. Ambition dans laquelle la Culture comme l’Industrie se retrouvent, Bercy espérant rompre le cercle vicieux de ce qu’on désigne généralement par la “taxe Google”, sur laquelle la France se casse les dents, en mettant en place un large dispositif fiscal à l’encontre des géants du réseau.
D’autres néanmoins estiment que le rapprochement de l’Arcep et du CSA pourraient aller bien plus loin. Et avoir des conséquences bien plus néfastes pour les internautes.
La Quadrature du Net s’élève par exemple contre un projet qui risque de virer en “ORTF 2.0″ :
Le CSA régule la diffusion de contenus, de façon centralisée, par des acteurs commerciaux.
Tenter d’imposer le même type de règles à la multitude d’acteurs, commerciaux et non-commerciaux, qui constituent le réseau décentralisé qu’est Internet, dans lequel chacun peut consulter, mais également publier des contenus, est une aberration.
Tout dépendra donc de la méthode de fonctionnement choisie au sein de ce mégacolosse régulateur. Et de qui gagnera le bras de fer déjà en train de se jouer entre l’Arcep et le CSA, Internet et l’audiovisuel.
Du côté de Michel Boyon, les exigences sont déjà très claires :
La [...] condition pour un tel rapprochement est qu’il garantisse la suprématie des contenus par rapport aux tuyaux. Ce qui compte dans notre pays, c’est ce que l’on fait circuler dans les réseaux. La technique doit être mise au service des programmes. Et non l’inverse.
Si cette vision s’impose, elle signera l’émergence d’une redoutable pieuvre régulatrice. Aux dimensions déjà peu à même d’épouser la complexité du Net, mais aux ambitions bien plus redoutables : tenter de le contrôler. En y apposant un filtrage serré des contenus susceptibles d’y circuler, un jugement strict de leur qualité afin d’assurer, comme le souhaite Michel Boyon, le “respect de la protection de l’enfance ou des consommateurs.” Bref un foutoir lourdingue et loufoque, plus de vingt ans après l’avènement du Net grand public.
Fort heureusement, cela n’arrivera pas. C’est Fleur Pellerin qui le dit, assurant que son gouvernement est “opposé à la surveillance généralisée et au filtrage. [...] La question n’est pas de limiter la liberté d’expression et les capacités d’innovation liées à la neutralité du Net. “ Nombreux sont ceux qui y veilleront.
Illustration et couverture par Cédric Audinot pour Owni ~~~~~=:) Téléchargez là ! ~~~~~=:)
Double couverture via Mystery in Space !
Les signes révélateurs, et puissamment déstabilisateurs pour toutes ces institutions qui se croyaient solidement en place, sont bien les mêmes :
1. Explosion de l’offre. Fin des monopoles de la production et de la diffusion, effondrement des barrières à l’entrée, abondance de nouvelles offres meilleur marché qui séduisent, désintermédiation et nouveaux intermédiaires, recul des revenus traditionnels, nouveaux rapports de force.
2. Nouveaux usages. Rapides et profonds changements générationnels dans le mode d’accès à l’information, la culture et le divertissement, consommés à la demande.
3. Primat de la technologie, de l’expérience sur le contenu — qui n’est plus roi–, et de l’accès sur la possession. Le message, c’est de plus en plus le médium.
4. Démocratisation et prise de pouvoir du public, qui contribue, interagit, programme, coproduit, assemble, commente, recommande, partage.
5. Atomisation des contenus, fragmentation des audiences.
6. Dématérialisation et disparition progressive des supports physiques, piratage facilité par l’usage généralisé du réseau.
7. Déflation. Désintégration des modèles économiques non transposables, modèles de rechange introuvables alors que la demande croît, course à l’attention et au temps de cerveau disponible, migration et éparpillement de la publicité captée par d’autres –souvent à l’étranger–, inquiétudes sur le financement de la création.
8.Bataille pour le contact direct avec l’utilisateur, dont les données sont commercialisées.
9. Certitude et rapidité du changement, de la propagation et de l’appropriation de nouvelles technologies en rupture, instabilité des processus, internationalisation des marchés, marques globales.
10. Conservatisme, défiance, rejet. Sidération et crispation des dirigeants face à la complexité du nouveau paysage, inquiétude des personnels mal armés, résistance corporative et culturelle au changement, impuissance des politiques dépassés, — souvent tous digital tardifs !
Ces dix indicateurs mondiaux de chambardements sont d’autant plus similaires que les frontières entre médias s’estompent au fur et à mesure de l’évolution des technologies et de l’adaptation de différents contenus, qui se chevauchent et convergent sur l’Internet, plate-forme dominante.
D’où ces interrogations :
Les leçons de quinze années de chamboulements douloureux dans la musique et la presse seront-elles tirées ?
La télévision traditionnelle du 20ème siècle résistera-t-elle mieux à la mondialisation numérique et à l’Internet ouvert ?
Saura-t-elle tirer parti de l’appétit croissant du public pour l’image dans une culture de l’écran qui s’installe ? Ou va-t-elle se raidir, s’arc-bouter en cherchant à protéger coûte que coûte – et assez vainement – ses sources traditionnelles de revenus ?
Adoptera-t-elle assez rapidement les nouvelles manières du public de consommer facilement des contenus partout ? Laissera-t-elle le télénaute frustré s’en aller ailleurs regarder plus de contenus sur plus d’écrans ? L’empêchera-t-elle de retransmettre et de partager ?
Pourra-t-elle s’enrichir des nouvelles contributions, des nouvelles formes d’écriture ? Trouvera-t-elle de nouveaux modèles d’affaires ? Saura-t-elle lâcher prise pour se réinventer ?
En schématisant, deux scénarios se dessinent:
– Scénario pessimiste :
Au milieu de la déferlante de terminaux connectés, le téléviseur devient un écran parmi d’autres, qui donne accès aux vieux contenus TV, perdus dans des millions d’autres au sein du réseau.
– Scénario optimiste :
Internet enchante la télévision qui garde une place centrale. C’est l’âge d’or de la télévision.
A court terme, le second scénario est possible à condition d’accepter que la télévision ne sera plus la télévision telle que nous l’avons connue.
Car si malgré bientôt vingt ans d’Internet, la télévision est en mesure de rester au centre de nos vies au foyer, c’est avant tout parce qu’elle ne répond plus du tout à la même définition qu’avant, et qu’elle va se consommer très différemment.
D’un écran d’affichage doté de quelques chaînes qu’on parcourt (presque de la vente forcée !), elle est en passe de devenir le cœur de la maison connectée, de se transformer en réservoir d’une multitude de contenus et services logés dans le “cloud”, consommés à la carte et disponibles sur d’autres terminaux. C’est-à-dire, sous peu, la porte d’entrée principale du web et la fenêtre sur tous les contenus. Des contenus d’information, de culture et de divertissement, mais aussi de santé, d’éducation ; des services de communication (visio-conférence) etc…
Mais la technologie est en train de modifier le divertissement. Avec leur ADN très technologique, de très nombreux nouveaux acteurs innovants, dynamiques et surpuissants – souvent déjà des empires mondiaux — travaillent à briser rapidement l’ordre audiovisuel établi pour organiser au mieux cette nouvelle expérience enrichie. Ils inventent de nouvelles interfaces vidéo, agrègent et vendent des contenus créés par d’autres, proposent de nouveaux formats et modèles d’affaires, court-circuitant au passage les tenants de l’ancien système. Même les fabricants de téléviseurs, travestis en agents immobiliers d’écrans, veulent devenir éditeurs !
Tous sont en train de forcer le décloisonnement entre le monde audiovisuel fermé et celui ouvert du web.
Les nouvelles règles de la télévision, dernier écran à ne pas être complètement connecté, sont réécrites sous nos yeux pendant que bascule l’équilibre entre médias et sociétés technologiques au profit des nouveaux redistributeurs, qui ont devant eux un boulevard permis par l’appétit insatiable du public.
Déjà Hollywood, qui espérait en vain que le public achète – même en ligne – et conserve ses productions, se convertit au streaming.
Les accords se multiplient en cette fin d’année entre, d’une part les studios d’Hollywood et les grands networks beaucoup moins dominants, et d’autre part les nouvelles plateformes des géants du web, pleins de cash. Il s’agit d’offrir au public et en streaming films, séries et grands shows TV sur le Web via tous les terminaux possibles. Cette nouvelle diversification des revenus, en plus de la publicité et des opérateurs, permet aussi d’éviter le piège de la concentration de l’offre cinéma et l’apparition d’un acteur central (comme iTunes pour la musique).
Au passage et contrairement à un positionnement technologique initial, Google, YouTube, Facebook deviennent devant nos yeux des médias producteurs et financeurs de contenus propres. Google a d’ailleurs assez d’argent pour racheter tout Hollywood, Apple vaut plus que les 32 banques de la zone euro réunies et Netflix fait des chèques en centaines de millions de dollars.
En sens inverse, pour survivre, les médias et leur ADN fait de contenus, sont forcés avec grande difficulté de se transformer en sociétés technologiques, remplies de logiciels intelligents, sans pour autant comprendre et mesurer l’impact de cette transformation au cœur de leur organisation. Car il ne s’agit plus seulement de publier ou de diffuser, puis d’attendre le lecteur ou le téléspectateur, mais d’offrir le bon contenu, au bon moment, et au bon endroit à un public qui jouit désormais d’une multitude d’offres concurrentes. C’est à dire d’avoir une connaissance presque intime de son audience, de son public, de chaque utilisateur pour créer une expérience pertinente. Tout le contraire d’un mass media ! Le défi est bien désormais de parvenir à offrir du “sur-mesure de masse” !
La réception des contenus à la maison est devenue totalement numérique. Et les chaînes de télévision ne vont plus être les seuls acteurs à pouvoir contrôler les points de contacts entre contenus vidéo de qualité et audiences. Perdant le contrôle de la diffusion, elles ne pourront plus, comme pour la musique, jouer de la confusion commode entre mode de distribution et contenus eux-mêmes. Elles ne pourront plus imposer leurs grilles de programmes, et sans doute, assez vite, leurs chaînes.
L’accès ubiquitaire aux contenus audiovisuels va vite devenir une réalité pour le public où qu’il soit dans le monde. Comme le disait l’un des pères de l’Internet, Vint Cerf, la TV approche de sa phase iPod. La distribution numérique et multi-écrans de programmes TV via Internet se généralise. Le cloud arrive à la maison. Et comme le télénaute souhaite désormais ses contenus TV aussi bien sur son PC que sur sa tablette, son smartphone ou sa console de jeux, il faudra l’aider à les trouver. D’où l’importance cruciale des métadonnées pour faciliter distribution et placement judicieux des contenus.
Les fabricants de téléviseurs étant plutôt lents à réagir, tous les géants du web travaillent aujourd’hui à un “relooking” de la télévision facilitant les passerelles avec l’Internet et tous les terminaux : Google et la V2 de sa Google TV, Microsoft et bien sûr Apple. Mais aussi les opérateurs de télécommunications, notamment en France, leader mondial de l’IPTV.
Chacun tente d’organiser le mieux possible la nouvelle expérience télévisuelle, la “lean back experience” (usage d’un écran en position relax).
Les modes d’accès de la découverte des contenus TV – imposés jusqu’ici par des chaînes— se multiplient et laissent la place aux nouvelles pratiques culturelles de la génération Internet : recherche, recommandation et jeu. Comme ailleurs, la consommation à la carte remplacera le menu, les conseils des amis prendront le pas sur les magistères, l’interaction ludique sur la consommation passive. Les ” watchlists” vont s’ajouter aux “playlists”.
Certains chercheront la martingale avec un media hybride parfait, d’autres se contenteront de faire ce qu’ils savent le mieux, sans vouloir tout accomplir. Mais le triptyque mobile / social / vidéo sera désormais au cœur des stratégies.
L’accompagnement actif des flux et du direct TV par une partie de l’audience et sur un second écran se met en place massivement sous l’appellation “Social TV”. Rapidement, il met le télénaute – devenu acteur – au centre du dispositif et des programmes. Facebook et Twitter enrichissent l’expérience TV par une nouvelle conversation en temps réel autour des émissions. Et la communion n’a pas nécessairement lieu au même moment. Dans une culture de retransmission, c’est le partage qui devient fédérateur, et le public qui devient auteur, éditeur, coproducteur et bien sûr, commentateur. Aux créateurs et producteurs traditionnels désormais d’y penser en amont. Comme à l’enrichissement contextuel, consommé sur un second écran, et qui permet aussi d’en savoir plus.
La télévision, c’est avant tout du divertissement fédérateur, tandis que l’ensemble ordinateur/smartphone/tablette permet d’abord l’accès à la connaissance et à la communication. Le mariage des deux univers suscitera probablement l’émergence de nouvelles écritures par de nouveaux acteurs dans un paysage recomposé … En tous cas moins de contenus prétendus « légitimes ». Et c’est tant mieux !
De nouveaux modèles d’affaires peinent à émerger. Mais les nouveaux agrégateurs / redistributeurs s’appuient sur leurs avantages compétitifs habituels : facilité à répliquer à grande échelle et capacité à rendre leurs utilisateurs captifs.
Dans le même temps, l’audiovisuel défend bec et ongles ses revenus traditionnels. Tout le monde court donc après la manne publicitaire de la télévision, toujours énorme par rapport aux autres médias. Mais la gestion des droits, notamment en streaming, augmente les incertitudes, et surtout, les perspectives de retour dans la récession inquiètent. Chacun sent que la migration vers la publicité en ligne – qui n’en est qu’à ses débuts — en sera favorisée. Le marché des applications aussi.
Le modèle “sur-mesure de masse” provoque une rude bataille pour obtenir le contact final avec le télénaute (facturation) et sa connaissance intime (pub ciblée) : HBO a bien plus de 25 millions de téléspectateurs mais ne les connaît pas, contrairement à Netflix, à Canal+, ou aux opérateurs de “triple play”en France. Gare aussi à la bataille annoncée pour la première page des magasins d’applications.
Mais la télévision semble éviter deux écueils majeurs payés cash par la musique et la presse : elle apparaît moins lente à proposer une offre légale en ligne (qui enrayera le piratage) et elle est en mesure de faire payer des contenus numériques, même si la vidéo en ligne rapporte peu pour l’instant. Et puis, les gens capables de produire des films et des séries sont quand même moins nombreux que les créateurs de musique ou de texte en ligne ! Le public passe plus de temps à retransmettre qu’à créer des contenus. C’est une chance pour les professionnels. N’oublions pas l’époque où dans la musique, pirater voulait dire enregistrer un disque vinyl sur une cassette vierge !
Après un web de publication (années 90), puis le web social contributif (2.0), arrive aujourd’hui le web audiovisuel et de divertissement (“lean back”) où la vidéo joue un rôle central et où tout le monde participe. Mais la valeur a migré des créateurs aux agrégateurs de contenus. Sans différentiation et valeur ajoutée, le prix des contenus tend vers leur coût marginal. C’est-à-dire, dans le numérique, proche de… zéro.
La télévision tente de donc déplacer et réinventer sa valeur autour de quelques axes :
1 – La qualité, le soin et la rigueur de l’écriture des séries de fiction : nouvel âge d’or de la TV. L’air du temps culturel (Zeitgeist) est aujourd’hui aux grandes séries de qualité (Mad Men, The Wire, Les Borgia …) devenues, à l’époque Internet, des phénomènes sociologiques de reconnaissance plus fédérateurs que le livre ou la musique. Nous nous retrouvons sur Facebook et partageons volontiers un frisson commun pour une série. Correspondant bien à notre temps d’attention disponible, elles offrent des performances artistiques de très haut niveau : scénario, mise en scène, grands acteurs, dialogues, réalisations, montage, etc… Mais la France y est en retard.
HBO, avec ses séries originales, populaires et innovantes de très grande qualité, constitue une des forces actuelles de la création audiovisuelle américaine et a largement contribué à redéfinir l’offre culturelle tout en forçant les autres chaînes à hausser leur niveau de jeu. Même tendance au Royaume Uni ou en Espagne.
Les créateurs et détenteurs de droits n’ont donc pas dit leur dernier mot. Car s’il est désormais crucial de s’allier avec les nouveaux distributeurs, ceux-ci ne peuvent rien sans des contenus de qualité. Mais le monde traditionnel de la création, qui vit en circuit fermé, a encore du mal à parler avec le monde de l’Internet. Les rapports de force seront cruciaux, y compris avec le législateur et le régulateur.
L’offre de contenus exclusifs et de haute qualité, où le paiement n’est pas tabou, éloigne les risques de nivellement par le bas. Mais il faudra éviter de croire que la qualité est propre aux chaînes et gare au “good enough is perfect” : des offres meilleur marché très acceptables (iPod, iTunes, Netflix …) ont prouvé qu’elles pouvaient s’imposer !
Quand on se bat pour l’attention des gens, sollicitée par des millions d’autres possibilités, vous avez intérêt à vous assurer qu’ils continueront de venir chez vous !
2 – Les grands directs et les grands événements fédérateurs, en sport, politique, talk-shows, spectacles vivants, sont encore des valeurs sûres du savoir faire des grands acteurs traditionnels de la télévision, notamment en raison de la détention des droits. La fraîcheur des contenus peut aussi être valorisée. La téléréalité de qualité également. Elle a permis la première vague d’arrivée massive du public dans les émissions et les programmes.
3 – La TV partout ou le multi-écrans. C’est la stratégie de Time Warner qui constitue à systématiser l’offre sur absolument tous les supports et en toutes conditions (Web, mobilités, réseaux sociaux, applications, câble, satellite, IPTV, etc…). La facilité d’accès est le premier service. La multiplication des points de contact favorisera les possibilités de monétisation. La prolifération de magasins de vidéos en ligne est une opportunité pour les riches catalogues des chaînes de télévisions et des producteurs de contenus vidéo. Cette tendance encouragera la fragmentation des contenus, le “cord cutting” du câble et des telcos, et accélérera le déchaînement … des chaînes.
4 – La TV traditionnelle, éditeur repère. Submergé par l’hyper-offre déferlante de contenus de qualité diverse, et donc confronté à l’hyper-choix, le télénaute sera en quête de repères, de tiers de confiance, qui l’aideront à remettre de l’ordre, à faire des choix, thématiser, réduire le bruit, s’éloigner du piratage. La certification et le sérieux apportés par des marques –encore familières– sauront l’accompagner et répondre à un nouveau besoin de médiation avec l’assurance d’une expertise reconnue. Cette dernière devrait être mise à profit pour organiser aussi l’offre des tiers, aider à trouver les contenus, leur donner du sens. Dans un nouvel univers inédit d’abondance, la qualité des contenus alliée à la clarté et la simplicité d’usage deviendront aussi, rapidement, de nouvelles valeurs ajoutées gagnantes.
5 –Favoriser la recherche et développement. Pour les programmes, les émissions, la publicité. Mettre le public en amont dans la conception et la production. Préparer à la source des expériences médias qui s’adaptent à la nouvelle vie des gens. Accepter de coproduire et de perdre un peu de contrôle. Partager et se familiariser à la grammaire des nouveaux médias, à la littératie numérique. Dire contenu à la place de programme, c’est aussi transformer la télévision.
Parallèlement, et c’est leur caractéristique, la disruption numérique et la révolution Internet se déroulent extrêmement rapidement, plus vite, souvent, que notre capacité d’adaptation. Sous nos yeux se créé une nouvelle culture digitale d’individus connectés entre eux, qui sont aussi dépendants du réseau que nous le sommes de l’électricité.
Aux Etats-Unis, les emplois dans les médias numériques sont désormais plus nombreux que dans le secteur de la télévision du câble. Facebook et son écosystème d’applications aurait déjà généré plus de 200.000 emplois et contribué pour plus de 15 milliards de dollars à l’économie américaine. Google, qui tire plus de 95% de ses revenus de la pub, réalise deux fois le chiffre d’affaires de toute l’industrie mondiale de la musique, Kodak a fait faillite, tweet et Twitter sont entrés dans le Petit Robert, le “hashtag” devient un code du langage.
Arrivée de l’ubimédia. Le “cloud” nous offre de larges capacités de stockage et de bande passante en supprimant la nécessité d’installer et de maintenir des logiciels ; les smartphones et tablettes facilitent l’accès ubiquitaire aux contenus et services; les réseaux sociaux multiplient les connexions horizontales professionnelles, personnelles et les collaborations au delà des frontières.
Les géants Google, Microsoft, Apple, Amazon, Facebook… sont de plus en plus mondiaux, de moins en moins américains. Les internautes des grands pays émergents (Chine, Inde, Russie, Iran, Nigéria, Brésil) de plus en plus nombreux. Il y a aujourd’hui plus d’utilisateurs de réseaux sociaux qu’il n’y avait d’internautes en 2006 ! Ils sont 800 millions (dont un Français sur trois) sur Facebook, qui, au centre du web est devenu l’OS de nos vies connectées ! Le temps passé sur les médias sociaux dépasse désormais celui des grands portails.
Et comme les autres, les Français passent de plus en plus de temps, sur de plus en plus d’écrans.
Grâce au design, Steve Jobs a fortement contribué à transformer l’informatique en industrie culturelle, à la faire sortir du bureau pour irriguer et enrichir nos vies, à la maison, en déplacement, à changer le vocabulaire média. Les chansons deviennent des listes, les abonnements des applications. Il a privilégié la forme sur le fond, l’esthétique et l’accès sur les contenus. Après les interfaces textes, puis graphiques, le regard, le toucher, la voix, les gestes, sont mis à contribution. Déjà, la réalité augmentée enrichit des expériences médias.
Le boom de la mobilité. L’Internet sur soi défie la récession : la progression des utilisateurs de 3G a fait un bond de 35% en un an dans le monde. Dans les pays riches, 40% de la population possède un smartphone, dont les ventes dépassent désormais celles de portables classiques.
Les tablettes et les smartphones sont plus vendus que les ordinateurs. Les iPads plus demandés que les iPhones ou iPods. Les claviers physiques disparaissent. Le monde applicatif gagne du terrain. La publicité et les grands annonceurs s’y mettent. Les objets mobiles de plus en plus connectés et intelligents renforcent l’autonomie des individus. L’informatique est de plus en plus personnalisée, souvent malgré soi.
Médias sociaux en temps réel. A chaque seconde nous racontons aux autres nos vies et nos rêves. Les médias traditionnels comprennent qu’il ne suffit plus que les gens viennent à eux : il faut aller aussi à leur rencontre. Et aujourd’hui, les gens sont sur Facebook, lieu de consommation et de partage privilégié de contenus, qui a quasiment annexé le reste du web et risque bien de devenir rapidement le distributeur incontournable de médias. L’immédiateté est la nouvelle unité de temps, l’attention la nouvelle monnaie et les données le nouveau pétrole.
“Big data”, data farming. Les données sont désormais vitales pour chaque entreprise. Leur collecte et leur analyse vont déterminer les nouveaux modèles d’affaires, notamment pour le ciblage comportemental. Les métadonnées accolées aux contenus vidéo vont devenir le nouveau lubrifiant indispensable du nouvel écosystème. Mais l’utilisation croissante des données personnelles par les grands, Google, Facebook, Amazon, suscite des craintes croissantes. La protection des données personnelles devient un enjeu crucial, notamment à l’heure de l’essor des technologies de reconnaissance faciale.
Mais rien n’est garanti. La bataille entre Internet ouvert et univers contrôlés fait rage : ni Facebook, ni l’iPad, ni la Xbox ne sont des espaces ouverts. L’accès de tous aux contenus et au réseau est aussi menacé, alors qu’Internet est un bien stratégique d’intérêt public. L’égalité de traitement de tous les flux de données, qui exclut toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau, devrait être garantie par les pouvoirs publics.
Les supports physiques de l’information et des médias semblent arrivés au bout du chemin. Les téléviseurs, eux-mêmes, risquent de disparaître pour se fondre dans notre environnement. Des interfaces existent déjà pour intégrer les images animées et sonorisées dans un miroir, une table en verre. Demain, avec un nouveau design, elles seront partout (sur nos murs, vitres, mains…) pour des expériences médias qui se dissoudront tout au long de la journée dans nos vies, sans rester confinées à un objet ou liées à un moment précis. Grâce à la reconnaissance vocale, elles se commanderont à la voix.
C’est le pronostic d’arrivée de l’information dématérialisée et ubiquitaire : nous serons immergés en permanence dans un univers informationnel où l’information sera disponible partout, tout le temps. Un univers qui s’inscrit bien sûr dans un monde de plus en plus connecté, où l’intégration off et online, notamment en mobilité, va s’accélérer, tout comme la fusion des usages entre nos vies privées et professionnelles.
Nous sommes tous des télés !
Internet a fait du texte, de la photo, de la vidéo des objets banals, peu coûteux à produire et faciles à transmettre. Nous sommes tous devenus des médias, et nous serons bientôt tous des télés ! Chaque entreprise, ministère, club sportif, acteur de cinéma, petit commerçant ou quotidien régional aura son application sur le téléviseur, comme ils ont tous leur site web et leurs applis smartphone ou tablette.
C’est donc dès maintenant – pendant l’installation de coutumes nouvelles – que les acteurs traditionnels doivent privilégier une stratégie offensive et embrasser ces usages en accompagnant le public avec leurs marques fortes. Si elles sont absentes, le télénaute ira voir ailleurs. Rappelez-vous, il n’y a déjà plus de chaîne hifi au salon, mais il y a encore de la musique !
Gare au danger de voir encore s’accroître le fossé déjà important entre la société et une offre TV dépassée, où le public ne se retrouve déjà plus. Attention donc au manque criant de pertinence d’intermédiaires obsolètes continuant à proposer des pains de glace à l’époque des réfrigérateurs. Et il y a danger de croire que l’ordre établi pourra continuer, seul, de contrôler un paysage si changeant et si complexe. La télévision est furieusement contemporaine si elle est enrichie et “smart” !
Ce n’est donc pas la fin de la télévision, mais la naissance d’une toute nouvelle TV, qui n’a rien à voir avec celle des années 80. La convergence actuelle de la télévision et d’Internet est une chance pour rapprocher les citoyens, les accompagner, les mettre en contact avec des services jusqu’ici isolés, partager les connaissances, leur permettre de prendre davantage part au monde de demain qui se met en place aujourd’hui.
Il s’agit bien d’une révolution culturelle.
Nous allons donc bientôt profiter d’appareils plus astucieux, conformes à notre nouveau mode de vie, souvent social, mobile, contextualisé, personnalisé, « always on ».
Déjà, les lignes se brouillent entre nos vies « off » et « online » ! Notre environnement immédiat est branché 24/7! « D’ici quelques années, tout ce qui est connectable sera connecté », aime à dire le patron de Google, Eric Schmidt. L’Internet –désormais partie significative de nos existences– nous fait vivre en immersion dans les médias et l’échange d’informations, au sein d’un univers aussi présent autour de nous que l’électricité ou l’air que nous respirons. Le réseau est devenu un autre oxygène !
Une nouvelle fois, un environnement neuf se met en place. Comme d’habitude, les nouvelles technologies, toujours traversées par des accélérations foudroyantes, orientent nos usages et concernent quasiment tous les aspects de notre vie. Les ruptures et dislocations continuent d’accélérer, poursuivent le chamboulement des modèles économiques et vont souvent plus vite que nos possibilités d’adaptation.
De nombreux grands secteurs de nos sociétés sont concernés : les transports, la santé, l’éducation, la culture, les médias.
Et, de plus en plus numériques, ce sont justement les médias –l’ensemble des moyens de diffusion de l’information– qui sont les premiers concernés sur fond de surabondance de contenus disponibles – de plus en plus sous forme vidéo– pour des expériences toujours plus immédiates, mobiles, partagées et personnalisées.
Les écrans sont désormais partout au centre de nos usages médias. Avec le basculement général vers l’Internet devenu ubiquitaire, l’essor extraordinaire des smartphones, du Wi-Fi, du streaming, et l’arrivée prochaine du très haut débit associé au déjà très répandu « cloud computing » et à une multitude de capteurs, nous vivons dès aujourd’hui de nouvelles expériences informatives, éducatives et de divertissement, à la maison, au bureau et en déplacement ! Les manières de jouer et d’apprendre changent. Nous avons d’ores et déjà à notre disposition davantage d’informations que toutes les autres générations précédentes réunies ! Avec un fait nouveau majeur : l’accès permanent à la connaissance, au jeu, au divertissement, devient plus important que sa possession. Et comme toujours avec le numérique, le public peut aller directement à la source ! D’où le succès de Netflix aux Etats-Unis pour la vidéo, ou de Spotify en Europe pour la musique. Aujourd’hui, numérique signifie immédiat, personnalisé, portable, infini. Demain, un livre, un disque, un film ne seront plus que des URL !
Mais, pour ce public multiconnecté, si la possession devient moins importante, la personnalisation, le sur-mesure, jouent, eux, un rôle de plus en plus grand dans des expériences médias qui remplacent la simple consommation de contenus. Chacun y travaille et les changements se déroulent sous nos yeux à grande vitesse.
Les jeunes, quand ils ne dorment pas, sont en ligne et ne s’informent plus que par Internet, le média sur lequel où ils passent le plus de temps.
Les smartphones se vendent déjà mieux que les ordinateurs et commencent à mordre sur le marché des appareils photos et caméras, qui, s’ils ne sont pas connectés sont aussi inutiles que du film argentique. Les tablettes, qui n’existaient pas il y a un an, sont devenues un maillon majeur de la convergence et se multiplient comme des petits pains.
Les ventes de livre numériques, téléchargeables à distance, ont triplé en un an aux Etats-Unis où leurs ventes viennent de dépasser – palier symbolique—toutes les catégories de livres imprimés. Pendant que même les grandes chaînes de librairie font faillite, le rêve de l’encyclopédiste de transporter avec soi tout son savoir, est réalisé.
La télévision résiste bien, demeure le média dominant, mais n’est plus un univers stable : elle ne se regarde pas comme avant, ni au même moment, et souvent en accompagnement d’autres activités. Sa force est augmentée par l’Internet, notamment via les réseaux sociaux. Certains Américains commencent à se désabonner du câble, d’autres, plus jeunes, n’y auront jamais recours. Les internautes téléchargent de moins en moins et consomment de plus en plus en streaming. Les jeux vidéo en ligne, si possible adossés aux réseaux sociaux, prospèrent et réussissent à capter l’attention des jeunes.
L’informatique dans les nuages (cloud) est de plus en plus utilisée comme lieu de stockage dématérialisé, voire d’accès à des contenus (non sans risques sur leur pérennité). C’est presque déjà devenu notre disque dur.
Le dégroupage des médias se poursuit à proportion de leur perte de contrôle sur les moyens de distribuer des contenus. Avec Internet, et grâce au haut débit généralisé, tous les médias fusionnent. Pour les natifs numériques, ce qui compte c’est le message, pas l’outil. Peu importe aujourd’hui qu’il soit sous forme photo, vidéo, son ou texte. Peu importe aussi qu’il émane de professionnels ou d’amateurs.
Les contenus des médias doivent être là où est leur audience. La publicité en est le premier témoin : franchissant un nouveau palier, aux Etats-Unis, l’Internet a dépassé en 2010, pour la première fois, les journaux comme support des annonceurs. Il ne reste plus que la télévision à détrôner !
Les médias physiques disparaissent petit à petit. Songez aux cassettes, disquettes, CD, DVD ! Même les clés USB sont encombrantes à l’heure du « cloud » !
L’« Homo Connectus » tient désormais pour acquis de pouvoir profiter des contenus où qu’il se trouve et sur tous ses écrans qui fusionnent. On l’a dit : Il ne télécharge plus mais profite des contenus en streaming. Encore une fois, c’est leur accès permanent qui compte. Internet se fond en de multiples écrans.
Ordinateurs, télévisions, smartphones, tablettes, vont ainsi se synchroniser pour déboucher sur une expérience d’utilisation homogène à la maison, au bureau et en déplacement. Les constructeurs travaillent beaucoup au transfert sans peine, sans frictions, des contenus entre tablettes et téléviseurs. Nous regarderons une émission chez nous le matin, la suivrons en mobilité avant de la retrouver au bureau. L’accès aux expériences vidéo se fera de plus en plus en mobilité.
Plusieurs progrès techniques associés vont permettre ce débordement d’expériences connectées d’un support à l’autre : le développement des GPS, la connectivité de nos environnements physiques, l’Internet embarqué, la puissance informatique croissante, le recours au « cloud computing », le web social, les effets cumulés du réseau, la miniaturisation, la baisse des prix et la multiplication des capteurs, qui se conjuguent pour rendre les appareils plus « intelligents », davantage capables de rendre des services par l’exploitation croissante de données, pour le compte de l’utilisateur et dans différents secteurs de nos vies quotidiennes. Dès cette année, le nombre d’appareils connectés va dépasser celui des ordinateurs. Le wi-fi va arriver dans les voitures. Et les industriels du secteur portent leurs efforts sur le marché grand public, devenu plus intéressant que celui des entreprises.
Après la révolution des écrans tactiles, la reconnaissance vocale et des visages, et l’essor des applications en réalité augmentée deviendront des éléments de notre cadre de vie numérique. Demain après le cinéma, la 3D, l’image en relief, s’imposera sur tous les écrans, y compris smartphones et tablettes ; elle modifiera encore notre expérience avec le numérique. Et sans lunettes !
Bientôt, les nouveaux appareils intelligents pourront deviner et anticiper sur nos souhaits en fonction de nos habitudes, de notre lieu, de l’heure et du jour de la semaine, de nos relations. Rappelez-vous : ils en savent déjà beaucoup sur vous !
Aujourd’hui, élément essentiel de notre nouvelle vie connectée, le smartphone, grâce à sa connectivité, sa mobilité et sa personnalisation, est devenu notre compagnon permanent, le principal canal d’informations ouvert, le lien vers le monde, le lieu des notifications, notre chaîne personnelle de divertissements, presque une partie de notre identité. Près d’un demi-milliard de personnes dans le monde profitent déjà d’un accès Internet vraiment mobile.
Au point qu’il n’est plus rare et –- bizarrement presque admis— de voir nos commensaux discourtois les consulter sans gêne, voire d’y tapoter un SMS ou deux. Rappelez-vous, il y a peu encore, nos téléphones mobiles restaient collés à l’oreille. Puis, nous nous sommes mis à les regarder (pour y lire – souvent en marchant– nos mails ou consulter des données), à les effleurer ou les caresser grâce à leur nouvelle techno tactile ! Aujourd’hui, l’appareil qui prend le plus de photos est notre téléphone ! Demain, nous les pointerons vers un paysage, un tableau, un restaurant, un cinéma, pour avoir plus d’infos, car, par la réalité augmentée, ils voient bien plus de choses que nous !
Sous peu, chacun aura un smartphone ou une tablette. La création par Apple d’un nouvel usage (accès par écran portatif à tout ce qui est écrit, joué, radio et télédiffusé) et qui n’existait pas il y a un an, provoque l’arrivée de très nombreux concurrents de l’iPad. L’attrait de la tablette est extraordinaire et son utilisation surprenante : le public ne sait toujours pas trop pourquoi il l’achète, s’en sert plutôt à la maison et à plusieurs !
Après avoir chahuté, déstabilisé les industries de la musique, de la presse, de l’édition, de la publicité, des telcos, l’Internet vient envahir le monde de la télévision.
D’ici 5 ans, la plupart des téléviseurs seront connectés. Le téléviseur s’ouvre au web et ne sera plus à sens unique. Impossible pour l’instant d’en saisir tous les effets. Mais une chose est sûre, le téléspectateur obtiendra ce qu’il voudra y trouver, d’une manière ou d’une autre … Là encore une économie de la rareté est sur le point d’être submergée par une économie de l’abondance et de … l’ubiquité. Comme dans la presse, une nouvelle logique de la demande va l’emporter sur celle de l’offre, plus banale, moins puissante.
Cliquer ici pour voir la vidéo.
Inversement, la télévision et la vidéo vont influencer l’Internet : plus de 80% de son trafic sera composé de vidéos dans quelques années. Mais le réseau partout pour de la vidéo a un coût qui n’est pas encore dans les modèles économiques actuels. La possible fin de l’Internet en accès illimité forfaitisé se profile et avec elle des menaces importantes sur la neutralité du net et donc sur des libertés publiques et fondamentales, comme le droit d’expression et l’accès à l’information et à la connaissance.
Chaque jour un peu plus, Internet devient un média audiovisuel ! Après un web d’outils (search, comparatifs, cartes, wikis, annuaires …), puis un Web de communication (email, messagerie, réseaux sociaux, téléphone sous IP), le nouvel Internet pourrait bien être celui du divertissement et des loisirs … de qualité (vidéos, musique, lecture enrichie, jeux …).
Renforcée par la mobilité et les réseaux sociaux, de plus en plus utilisés en parallèle, la télévision reste le média dominant. Le public ne se contente plus de la regarder, chez lui ou en déplacement, il en parle, via SMS, email, Twitter ou Facebook. La dimension sociale, qui a toujours fait partie intégrante de l’expérience télévisuelle – on la regarde rarement seul–, est renforcée par les nouveaux outils. Elle devient sociale.
Cliquer ici pour voir la vidéo.
Mais la télévision se consomme aussi de plus en plus à la demande, pendant que les chaînes traditionnelles perdent progressivement le monopole du téléviseur et ont peur de voir l’audience, et donc la valeur, partir ailleurs. Avec leurs nouveaux magasins d’applications embarquées, les fabricants rêvent d’en faire un grand iPhone horizontal dans le salon. Les chaînes redoutent, elles, la fragmentation de l’offre, le recul de leur rôle d’agrégateur et de prescripteur d’une offre organisée ou, pire, de n’être plus qu’une application parmi 1.000 autres, coincées entre celle d’Angry Birds et de la SNCF. La lutte pour être sur le premier écran, la porte d’entrée, sera rude ! Il leur faudra surtout travailler dur sur la relation unique qui les lie à leur audience pour répondre à cette « délinéarisation » de leurs contenus.
Les chaînes misent beaucoup sur l’aspect fédérateur des grands événements, du direct, de leurs animateurs, et sur la qualité de leurs contenus.
A coup sûr, Internet va modifier la perception que nous avons de la télévision et de la vidéo, créant de nouvelles habitudes et des demandes inédites. La bataille entre l’engagement (« lean forward »), propre au PC, et le divertissement (« lean back »), lié à la télévision, n’est pas terminée ! Avant que l’expérience télévisuelle ne s’écoule sans rupture d’un écran personnel à l’autre, la bagarre entre les nouveaux entrants disruptifs et les dinosaures cathodiques expérimentés va être rude d’ici 2015.
Le niveau d’expérience comme la simplicité d’usage seront les facteurs clés d’adoption. Personne ne veut plus gérer ses câbles et ses multiples boîtiers à la maison. La télécommande –2ème vrai écran important – et les guides de programmes devront aussi se simplifier pour faire face à la paralysie née de l’hyper choix et aider à la découverte visuelle. Le « search » et la recommandation, au cœur des nouveaux médias, joueront, là aussi, un rôle considérable.
L’ère du multi-écrans va dominer. Comment alors continuer à gérer des restrictions sur la télévision qui n’existent pas sur le PC ? Quelque soient les murs qui seront mis autour des expériences, le public, aujourd’hui en position de force, saura trouver, sélectionner, et consommer les œuvres comme il le désirera, sur l’écran de son choix et au moment voulu. Et gageons que plus leur accès sera facilité, moins il y aura de piratage.
Mais dans un tel foisonnement technologique, qui répond au formidable essor des usages numériques, les médias traditionnels d’informations, plus liés à la création de contenus bruts qu’à la fabrication d’expériences sophistiquées, semblent perdre la maîtrise de leur destin.
L’accélération de la désintermédiation et de la complexité technique les fait progressivement lâcher prise. De plus en plus de nouveaux acteurs (développeurs de logiciels, agrégateurs de contenus, fabricants de matériels)
viennent s’intercaler entre eux, leurs audiences et leurs annonceurs; contrôler l’accès au public et se servir au passage. L’exploitation des données des utilisateurs, nouveau nerf de la guerre, leur échappe de plus en plus. L’eldorado du marketing comportemental et personnalisé risque bien de profiter à d’autres. La publicité est aussi en train de se réinventer et cherche comment tirer parti des nouveaux supports connectés, notamment la « social TV ». Et pourtant il faudra bien continuer à financer des médias producteurs d’informations.
Les nouveaux médias sociaux, plateformes de création, collecte et partage d’informations, n’en sont qu’à leur début. Déjà règne la co-création distribuée, le partage massif et jubilatoire ! Les gens disent et écrivent ce qu’ils savent, sont de plus en plus impliqués dans la création, chaque jour plus aisée, de contenus photos et vidéos.
Le public aime ces médias de découverte de contenus inattendus, portés par le flux du temps réel, émanant de sources et filtres auxquels il a accordé sa confiance (amis, proches, experts, personnes admirées, etc …). Car ces réseaux sont surtout devenus d’influence, aidant à trier, à réduire le bruit d’Internet ! La curation, sorte d’édition partagée, règne. Les gens ne consultent plus les nouvelles, mais leurs nouvelles, leurs informations. Là où ils veulent, quand ils veulent et sous la forme qu’ils veulent.
Facebook, qui domine en Amérique et en Europe (22 millions d’utilisateurs en France) est l’endroit où nous passons le plus de temps, et en sait de plus en plus sur nous. Même Google est contraint d’imiter le fameux « Like button » qui organise, depuis un an, la socialisation de ses utilisateurs. Twitter est devenu une agence de presse mondialisée et personnalisée en temps réel.
La grande majorité des moins de 35 ans aujourd’hui se sentent au moins aussi bien informés par les réseaux sociaux que par les médias traditionnels. D’ailleurs,
la recommandation via les réseaux sociaux – le bon vieux bouche à oreille version “geek” – est devenu une source de trafic importante pour les sites d’informations.
Dans ces derniers, le journaliste assure une médiation professionnelle désormais tournée davantage vers la transformation que la génération d’informations. Son tri, sa sélection, sa vérification et sa hiérarchisation des nouvelles et des témoignages comptent plus que sa propre production.
Sur le terrain, les pratiques changent aussi : les photographes se retrouvent face aux journalistes de radio et de télévision. Chacun utilise les outils de l’autre dans une nouvelle orchestration éditoriale. Des JRI gagnent des prix de journalisme vidéo pour des sujets réalisés avec des appareils photos ! Les frontières sautent les unes après les autres. Il faut désormais adapter le sujet au média. La narration n’est plus linéaire.
Du texte à la vidéo, en passant par l’email, le SMS, les écritures changent aussi et deviennent plus visuelles, plus « fun », pour profiter des opportunités des nouvelles plateformes interconnectées. Le web, plate-forme convergente, permet d’accueillir tous les formats, souvent jusqu’ici cloisonnés, pour inventer un nouveau langage, de nouvelles écritures, de nouvelles formes de représentation.
Une nouvelle représentation du monde par l’exploitation visuelle des données se développe. Dans la course à l’attention, la visualisation de l’information aide à la compréhension de situations complexes. L’un des grands défis des rédactions, qui doivent aussi parler de plus en plus à l’intelligence visuelle du public, est aujourd’hui d’apprendre à travailler étroitement avec les designers, graphistes, statisticiens, développeurs pour enrichir l’information. Là aussi les barrières traditionnelles sautent, notamment dans l’illustration, favorisant un travail collectif. Cet habillage de l’information favorise l’immersion dans les sujets traités.
C’est aussi l’une des caractéristiques des « serious games ». En plein boom, le jeu en ligne et collaboratif, le plus souvent sérieux, bientôt en 3D, devient un élément central de l’engagement et de la fidélité des audiences. Les designers de jeux vidéo sont devenus les nouveaux experts de l’immersion et la fidélité de l’audience. Le couple Zynga/Facebook attire plus de 200 millions de joueurs chaque mois. Nombreux sont ceux qui se demandent comment profiter de ces nouvelles expertises dans l’éducation, la vie civique, la santé, mais aussi la fiction et l’information.
Des points d’entrée multiples et des formes d’interactions et de navigation inédites sont proposés dans de nouvelles formes narratives. L’audience s’est familiarisée, ces dernières années, avec d’autres formes de contenus que l’article ou le JT ! Personne n’a encore trouvé le bon modèle de narration entre le web et la télévision. Mais nous ne sommes qu’au début de cette histoire. Il faut favoriser la démarche de création pour faite naître des savoir-faire, puis une industrie. Internet est bien aujourd’hui un des endroits les plus créatifs du monde.
Introduction au Cahier de Tendances médias de France Télévisions / Printemps- Eté 2011 publié initialement sur Meta-Media
Images FlickR CC The unnamed et SimonQ錫濛譙
]]>C’était un peu le salon de la reprise. Le nombre de visiteurs aurait atteint environ 140.000 personnes, alors qu’il était descendu à moins de 110.000 en 2008, puis remontait lentement la pente depuis. Cela se voyait dans les allées, dans les conférences de presse, et même dans le trafic routier très congestionné de Las Vegas. Le salon est plein d’innovations mais, comme d’habitude, on n’y découvre pas d’innovations de rupture. L’innovation est un processus graduel, permanent. Avec des soubresauts, des phénomènes d’expansion ou de reflux. C’est un peu ce que l’on pouvait observer au CES cette année concernant la 3D, les télévisions connectées, les interfaces utilisateurs, tout comme avec les tablettes et mobiles. La paradoxe du “rien de vraiment nouveau” couplé à “plein de nouveautés” !
La vidéo 3D était mise en valeur par l’ensemble des constructeurs qui veulent pousser très proactivement leurs nouvelles offres associées auprès des consommateurs. Cela concerne évidemment les écrans, mais aussi les sources (lecteurs Blu-ray, set-top-boxes) tout comme les moyens de capture qui se multiplient pour le grand public avec de nombreuses caméras (Sony, Panasonic, JVC, etc.) et quelques appareils photo qui fonctionnent en 3D (notamment chez Sony).
Du côté de l’affichage, le débat fait rage sur les mérites respectifs des lunettes actives et passives, j’y reviendrai dans le rapport. On trouve des solutions d’affichage sans lunettes dites “auto stéréoscopiques” mais elles sont toujours très moyennes. Il faut dire que c’est un problème technique assez difficile – voire impossible – à résoudre. On se console donc avec des lunettes 3D stylées que l’on peut trouver chez Samsung, LG Electronics, tout comme chez une myriade de sociétés plus spécialisées, dont, surprise, Polaroid qui en lançait une paire conçue par Lady Gaga, venue sur leur stand et attirant une foule considérable.
La grande nouvelle du CES 2011, c’est que Google TV n’est plus l’épouvantail de l’industrie qu’il incarnait depuis son lancement en avril 2010. Tout du moins, pour l’instant. À la fois parce que quasiment aucune solution nouvelle le mettant en œuvre n’était annoncée (à part Samsung qui présentait en catimini un boitier “over the top” et un lecteur Blu-ray sous Google TV), Google ayant demandé à ses partenaires constructeurs de repousser leurs annonces. Mais aussi parce que la solution est pour l’instant assez décevante à l’usage, tout du moins lorsque l’on souhaite consommer de la télévision “à l’ancienne” et pas juste sur YouTube. J’ai pu le constater chez Sony, Logitech et Dish Network, les trois stands où Google TV était exploitable.
En conséquence de quoi, on pouvait observer les TV connectées qui continuent de s‘améliorer “en silo” chez les grands et petits constructeurs, comme chez LG Electronics dont la LG SmartTV semble être une des plus abouties de ces solutions (ci-dessous).
J’ai pu également regarder de près l’offre IPTV multi-écrans de Verizon (FiOS) qui a l’air d’être assez complète, avec les chaines des grands networks disponibles en streaming live sur iPad et autres écrans mobiles. Comme quoi, à l’instar de nos FAI en France, les opérateurs télécoms ont encore leur rôle à jouer dans les TV connectées.
Comment piloter sa TV ou sa set-top-box, tout comme ses consoles de jeu ? Les commandes gestuelles étaient très présentes sur le salon. Résultat de l’effet “Kinect”, la solution de Microsoft pour la XBOX 360 qui s’est vendue à 8 millions d’exemplaires en deux mois, un record dans la sortie d’un nouveau produit grand public. Derrière ces solutions, on trouve des fournisseurs de technologies comme l’israélien PrimeSense à l’origine de Kinect et qui licencie à tour de bras sa technologie de chipset et son reference design, notamment chez Asus (ci-dessous). Vous risquez donc de la voir apparaitre un peu partout. Sans compter les technologies des concurrents de Prime Sense qui utilisent le “Time of Flight” pour détecter les mouvements (nous y reviendrons…).
On trouvait aussi sur le salon un très grand nombre de petits claviers sans fil. Beaucoup plus que les années précédentes. Que ce soit pour s’interfacer avec une tablette, un smartphone ou un PC media center.
Je ne vous apprendrai rien en vous indiquant que l’on trouvait plein de tablettes au CES.
La plupart étaient sous Android et notamment dans la version Honeycomb qui supporte bien les interfaces tactiles. On en trouvait autant chez les grandes marques (Samsung, LG, Panasonic, Acer, Asus, etc.) que chez les sociétés chinoises qui les fabriquent en standard (OEM) ou sur mesure (ODM). À ceci près que les tablettes bas de gamme sont en général équipées de processeurs bas prix anémiques. Il faut s’en méfier.
Un phénomène intéressant : la frontière entre smartphones et tablettes voire netbooks s’amenuise. Il est incarné par l’Atrix de Motorola, son nouveau smartphone sous Android qui présente la particularité d’être associable à une docking station en forme de netbook très plat (ci-dessous). C’est très séduisant comme concept.
On trouvait aussi des tablettes sous Windows avec ou sans clavier, notamment chez Dell, Samsung et Asus. Peut-être un revival des “Tablet PC” qui n’ont jamais vraiment percé sur le marché.
Côté ebooks, j’ai été surtout bluffé par l’écran e-paper en couleur Mirasol de Qualcomm (ci-contre), présenté pour la première fois au CES. On attend toujours les ebooks qui en seront équipés. La production de ces écrans, pour l’instant au format 7 pouces, aurait déjà démarré donc cela ne devrait pas tarder.
Les constructeurs d’ebooks se différencient maintenant plutôt dans les offres de contenus que dans leur matériel, tellement ils sont standardisés autour des écrans provenant d’e-ink.
Le phénomène est très marquant. On trouve Android mis à toutes les sauces : dans les tablettes, dans les smartphones, dans certains netbooks, dans les TV et certaines set-top-boxes et même dans les autoradios. Sa gratuité n’y est pas pour rien. Mais peu d’appareils sont certifiés Google et chacun a son propre “Application Store”. Je vous explique pourquoi dans mon rapport CES 2011.
Ce salon marquait aussi la montée en puissance de la 4G dans la mobilité. Elle est poussée par les opérateurs (Verizon, Sprint, etc) comme par les constructeurs (Samsung, LG, etc). Avec des déploiements qui vont varier d’un pays à l’autre. On pouvait cependant noter l’absence d’AT&T sur le salon.
Un grand nombre des innovations évoquées ont comme origine les évolutions des processeurs embarqués. Leur rôle est critique et je vais le décrypter dans mon rapport.
On trouvait au CES des sociétés comme Intel mais aussi Qualcomm, Broadcom, ST Microelectronics, Marvell, Atheros, qui ont toutes des offres intéressantes. Qualcomm, encore lui, propose maintenant son System On Chip Snapdragon en version bi-coeur, que l’on retrouvait dans divers smartphones. Idem dans la TV, où les Atom Sodaville et Groveland (Intel), le 7225 de Broadcom et le 7108 de ST Microelectronics rendent possibles la création des set-top-boxes de la nouvelle génération.
Le rôle de ces processeurs embarqués est tel que Microsoft a annoncé au début du salon le support de certains d’entre eux, notamment sur architecture ARM, dans la prochaine version 8 de Windows.
Il faut aussi noter le rôle tout aussi critique des capteurs : gyroscopes, GPS, accéléromètres, capteurs de pression, de luminosité, qui s’intègrent dans tous ces objets numériques. Ces nouveaux capteurs sont notamment utilisés dans un tas de solutions dédiées à la santé, assez nombreuses sur le salon.
J’ai même vu un nanocomposant de spectrographie qui pourrait servir à améliorer le calcul automatique de la balance des blancs dans les appareils photos.
Le « crapstore » est un diminutif décrivant la variété de ces gadgets matériels qui complètent les produits Apple. On en trouve une quantité toujours incommensurable, avec la nouveauté de l’iPad à laquelle tout “l’after market” s’est adapté en juste quelques mois.
Il y a bien entendu plein de trucs classiques sans grand intérêt (les pochettes en cuir, les coques en couleur, les stations d’accueil) mais d’autres gadgets peuvent être plein d’ingéniosité ou surprendre. Il en va ainsi de ce système de karaoké pour iPad (ci-dessous). La liste est très longue et vous aurez droit à un reportage photo complet de ces gadgets dans le Rapport CES.
Il y avait beaucoup de Français au CES 2011, autant visiteurs qu’exposants. J’ai découvert pas mal de sociétés françaises qui exposaient pour la première fois, sans compter les Français qui dirigent des PME innovantes à l’étranger (USA, Hong-Kong). Mon inventaire des sociétés françaises exposant bat des records depuis que je visite le CES (2006). C’est un signal très encourageant du dynamisme de nos PME innovantes.
Parrot est l’une d’entre elles et est bien connue pour exploiter le CES pour ses grands lancements. La société a encore marqué des points avec le lancement de son autoradio sous Android, l’Asteroid (ci-dessous).
Voilà pour commencer. Ce salon reste un émerveillement tellement on y croise de nouveautés, même si elles ne sont pas radicales. Les usages numériques sont infinis, les combinatoires illimitées. Il faut juste savoir conserver le regard d’un enfant émerveillé lorsque l’on visite le salon. Sans compter cette folle ville qu’est Las Vegas.
Le rapport exploite une base de 4.400 photos, 190 vidéos et 120 Go de contenus à trier, captés avec mon Canon 5D Mark II. Du pain sur la planche ! Vous pouvez télécharger le rapport de Olivier Ezratty :
Vous pouvez aussi regarder les interviews sous Skype réalisées avec notre ami à tous Jean-Michel Billaut pendant toute la durée du salon (Day 1, Day 2, Day 3, Day 4 et Day 5) !
—
Article initialement publié sur le blog Opinions Libre
>> photos de Olivier Ezratty / image de clé CC TechCocktail
]]>Comme chaque année à la conférence de l’ONA, Ammy Webb, consultante média, a fait salle comble avec son « top ten » des tendances technologiques appliquées aux médias.
Voici le cru 2010 :
Utilisé depuis une quinzaine d’années en Asie, le fait de scanner, via des smartphones, des codes-barres, répartis un peu partout dans la ville et les médias, se développe fortement aux USA. Il permet de renforcer l’engagement du média et de ses annonceurs avec son audience. Les médias devraient utiliser davantage ces comportements urbains en offrant des liens vers leurs médias ou depuis leurs médias. Google utilise bien cette fonction.
Extension progressive vers la reconnaissance optiques de caractères.
Aujourd’hui, les gens qui utilisent Foursquare ou Yelp peuvent tricher sur leurs vrais lieux d’enregistrement manuel. Les distances réelles restent floues en raison des limites des systèmes d’exploitation. Certains téléphones offrent des notifications push, mais d’autres n’en ont pas. Il faut alors vérifier les mises à jour. C’est contraignant.
Mais il est facile de créer des notifications envoyées automatiquement à partir de l’entrée sur un territoire, pour des applications mobiles, des réseaux sociaux et des contenus. (Pratique pour surveiller ses enfants , recevoir des messages pertinents de boutiques dans une zone ou des informations à des lecteurs d’une région).
Certaines peuvent être dynamiques et réactualisées en temps réel en fonction de votre position géographique.
Une application de «geofencing» est disponible sur l’iStore.
Autres exemples :
-Miso
-Tunerfish (Comcast)
-Fanvibe
-Superglued
-iSwig
-TabbedOut
-Plerts
L’analyse prédictive permet d’anticiper le comportement des utilisateurs en ligne et dans les réseaux sociaux, pour déterminer ce qu’ils voudront regarder, lire, acheter, etc.
Des informations d’analyse prédictive, produites à partir de données personnelles librement communiquées (volontairement ou non), sont utilisées par des marques dans Facebook où il est désormais possible d’acheter des produits. cf Kembrel.
-Amazon s’est ainsi associé à Facebook pour y présenter des solutions e-commerce. À utiliser en combinaison avec Quora.
-ESPN.com les utilise aussi à son avantage pour cibler son audience et mieux comprendre l’attitude de ses visiteurs internautes.
-Twitter va lancer sous peu un outil mesurant vos centres d’intérêt.
Oui, les gens veulent savoir ce qui se passe autour d’eux, mais ils souhaitent une approche plus sophistiquée que ce qui est proposé aujourd’hui. Pour l’instant, les initiatives hyperlocales sont limitées à un public de geeks, d’universités et de fondations. Le grand public n’en a cure.
Le tableau ci-dessous montre les limites du succès des initiatives hyperlocales :
Il vaut donc mieux privilégier l’hyperpersonnel :
Le contenu doit être un contenu de niche. Pas hyperlocal, mais géographiquement spécifique.
« Local » signifie l’endroit où je suis maintenant. Pas forcément là où je vis ou je travaille.
Le contenu doit être crédible et en temps réel.
Il ne s’agit pas seulement de cartographies et de contenus UGC.
Le contenu doit impliquer les réseaux sociaux pour réussir.
Le public souhaite être en mesure de trier en temps réel et de manière dynamique les continus qu’il a choisis, par exemple via les flux RSS et surtout désormais via les réseaux sociaux.
Sur l’iPad, l’application Flipboard est un des exemples les plus aboutis de l’avenir d’une information, triée par des personnes en qui vous avez confiance.
Autres exemples :
-Wavii (private alpha)
-Storify (private beta) : un CMS pour des flux venant des réseaux sociaux en temps réel. Utilisé par le site TBD.
-Qwiki (private alpha)
ou encore Paper.li et Twittertim.es pour les flux Twitter.
Les médias doivent utiliser ces outils pour publier leurs contenus et aider au tri sélectif des contenus du web. Un des objectifs serait de remplacer Google News par ce type d’outils sociaux intelligents. Mieux qu’un simple agrégateur !
De nouveaux outils de recherche moissonnent les réseaux sociaux pour creuser et trouver l’information. Très utile pour les journalistes mais, attention, danger pour vos données personnelles.
Exemples :
-Greplin.com (bêta privé) permet de chercher dans tous vos réseaux sociaux, ainsi que sur le web, le courrier électronique et dans d’autres endroits, tout à la fois. Le meilleur ami des reporters !
-Google a racheté Angströ pour dopper Google Me et concurrencer Facebook.
-Spokeo combiné avec KnowEm peut maintenant être utilisé pour traquer les noms d’utilisateur caché.
Facebook devient aussi de plus en plus un moteur de recherche.
La réalité augmentée va changer la manière dont le public va accéder à l’information.
- Voir quelques vidéos spectaculaires de démos sur The Astonishing Tribe.
Noter aussi l’arrivée de la techno de la « réalité diminuée », qui permet de supprimer en temps réel des objets dans une vidéo (comme dans PhotoShop).
Attention donc à bien géo-tagger les contenus.
2011 sera l’année des tablettes ! Et pas que pour l’iPad !
Essai comparatif Webbmedia ici.
Évidemment, tous les regards sont tournés vers la Google TV et son OS Androïd.
Mais attention aussi aux fabricants de téléviseurs (Samsung, Toshiba, Vizio, Sony), aux fabricants de boites décodeurs, aux fournisseurs d’accès, aux différents intermédiaires. Et bien sûr à Apple (application iPad MyGeneration).
L’informatique dans les nuages va stocker nos contenus préférés.
Certaines tablettes sont capables d’écouter la télé et de donner du background pertinent !
La recommandation est de ne pas fournir des contenus à des seules fins de marketing. Pour l’instant, ces initiatives manquent de contenus….
Pour l’instant, les alliances et regroupements ressemblent à ça :
De plus en plus l’Internet des objets et les puces RFID éparpillent des tags et des étiquettes un peu partout dans le monde réel. Ces données pourront être reliées à nos vies personnelles.
Exemple de BodyMedia : un bracelet envoie toutes sortes d’informations pertinentes sur sa santé et se synchronise avec son ordi ou son iPhone tout au long de la journée.
Apple a déposé beaucoup de brevets autour de ces sujets.
—
Billet publié initialement publié sur Metamedia ; image CC Flickr rutty
]]>Quelle liberté d’accès au réseau en ligne pour la communauté croissante des internautes ? Doit-on autoriser les opérateurs à restreindre l’accès aux contenus, services et applications dont ils permettent la mise en ligne pour des motifs techniques ou économiques ? Faut-il instaurer un cadre de régulation souple, ou envisager de se résoudre à légiférer de façon plus contraignante ? Quelles suites donner aux propositions formulées récemment par le Gouvernement et l’autorité de régulation ?
Vaste programme, synonyme pour certains d’un énième symposium infructueux et bavard, marqué par une sur-représentation des institutions étatiques (CSA, Arcep), des opérateurs (Bouygues Télécom, Orange) et des ayants droit (SACD et APC). Mais si ces discussions ont été le théâtre des traditionnelles oppositions sur le front de l’investissement dans les infrastructures du réseau, opérateurs et services en ligne ne cessant de se renvoyer la balle en la matière, elles ont le mérite d’avoir soulevé pour la première fois la question des téléviseurs connectés. Au-delà de la conciliation du principe de neutralité avec le risque de congestion, le Sénat a interrogé le statut de ces télé reliées à Internet, secteur notamment investi par les géants Google et Apple.
Curiosité de ces nouveaux débats, ils se sont articulés autour de deux tables rondes distinctes, intitulées «neutralité des contenus» et «neutralité des réseaux». La dissociation des thématiques n’a pas manqué de surprendre; elle semble avant tout avoir servi de prétexte à l’évocation en longueur du régime des téléviseurs connectés et des œuvres diffusées sur ces supports. Néanmoins, elle vient inutilement scinder le concept de neutralité des réseaux, qui affirme un libre accès aux sites, services et applications sur Internet, tant en amont (création de contenus) qu’en aval (consultation). De fait, le principe de neutralité tel qu’exposé par Tim Wu englobe déjà la question des contenus; on peut donc s’interroger sur la pertinence et l’impact de cette nouvelle subtilité introduite au Sénat.
Du côté des acteurs traditionnels du secteur, déjà largement consultés sur la thématique, rien de nouveau sous le soleil de la neutralité; opérateurs et services en ligne campent sur leur position.
Le représentant d’Orange Pierre Louette a ainsi répété l’attachement du fournisseur d’accès «au maintien des services gérés, par exemple dans la télévision et les vidéos à la demande». «Les paquets de données ont-ils la même importance ? Pour moi, non», a t-il poursuivi, plaidant pour que les opérateurs puissent «organiser, sans porter un préjudice fondamental aux autres contenus, des formes de priorité pour certains contenus qui ont impact particulier ou qui offrent une garantie”. «Préjudice fondamental», «impact particulier» : autant de termes qu’Orange se doit encore d’éclairer.
Au niveau des sites Internet, représentés par le président de l’Asic Giuseppe de Martino, l’impératif a une nouvelle fois été de rappeler leur contribution au développement des infrastructures, remis en cause par les FAI.
Près de 40% de nos coûts sont des investissements réseaux: bande passante, matériel… Si on nous demande de participer un peu plus, on utilisera l’argument final: ne devrait-on pas profiter aussi un peu plus des abonnements que touchent ces fournisseurs de réseaux ? Car si on s’abonne aujourd’hui, c’est aussi pour bénéficier de nos services, a menacé Giuseppe de Martino.
Au-delà des responsabilités financières de chacun, le débat sénatorial a souffert des travers classiques d’un débat sur la neutralité, à savoir le glissement sémantique vers un Internet «ouvert». Tant et si bien que l’intérêt du débat s’est vu déporté d’une définition de la neutralité vers un balisage du contrôle dont bénéficient aujourd’hui les opérateurs sur les contenus. Au centre des discussions donc, «le contrôle du contrôle», comme l’a justement souligné Claude Kirchner, unique représentant de la communauté scientifique (INRIA): basculement en apparence anodin, qui donne pourtant de fait l’aval à une mainmise des opérateurs.
A l’exception de Claude Kirchner, pour qui le téléviseur connecté «est juste un ordinateur avec une télécommande élaborée», la majorité des intervenants penchés sur la question des contenus ont insisté sur la spécificité de ce nouveau service. «Télescopage de deux univers», celui de l’audiovisuel et de l’Internet, pour Emmanuel Gabla du CSA, monde aux logiques différenciées selon Alain Le Diberder de la SACD. Autrement dit, la petite lucarne n’a pas été d’emblée placée sous l’égide de la neutralité.
S’il déclare vouloir le voir appliqué aux services gérés, le CSA concède timidement que «certains aménagements de ce principe de neutralité des réseaux» pourraient être organisés, «pour répondre aux exigences de certains services en temps réels et pour financer l’établissement de certaines infrastructures», telle la fibre optique.
Infrastructures toujours donc, mais pas que: la nature et le financement des contenus inquiètent également le monde de l’audiovisuel. La marotte hexagonale d’une «spécificité des contenus culturels français», présentée par le sénateur Bruno Retailleau comme constitutive de «notre identité», vient titiller le concept de neutralité… quitte à le contredire, comme le remarque justement Numerama. Le CSA s’est en effet inquiété d’une absence de neutralité sur les moteurs de recherche, qui pourrait se concrétiser en une mise en avant des contenus en provenance d’outre-Atlantique. «Pour favoriser la consommation et la visualisation de contenu d’origine française et européenne, il faut être certain que les moteurs de recherche soient parfaitement neutres», a ainsi déclaré Emmanuel Gabla. Représenté dans la salle, Google France n’a pas manqué de renvoyer la balle aux acteurs de l’audiovisuel français, les appelant à être «pro-actifs» pour être valorisés sur les moteurs de recherche.
Autre point jusque là peu -voire pas- abordé dans le débat sur la neutralité des réseaux: le financement du contenu qui circule dans les tuyaux. De nouvelles voix se sont ajoutées à la discussion: celles des sociétés d’auteur, SACD et APC, qui ont abordé le sujet délicat de la propriété intellectuelle.
Là encore, l’investissement de chacun suscite la polémique: pour les ayants droit, il est clair que les nouveaux services qui s’apprêtent à diffuser du contenu sur les téléviseurs connectés, en premier lieu Google et Apple, doivent mettre la main à la poche et financer la création. Frédéric Goldsmith, délégué général de l’APC, l’affirme: «neutralité du net n’est pas [synonyme de] violation de la propriété intellectuelle». Dans la mesure où les contenus audiovisuels constituent un «produit d’appel», poursuit-il, il est impératif que ceux qui les utilisent «investissent dans les œuvres». Même son de cloche du côté de la SACD, qui souhaite voir perdurer une rémunération des création «par l’aval»: des diffuseurs vers les créateurs.
La question du financement de la création a été l’occasion pour les ayants droit de saluer le travail de l’Hadopi, «qui a le mérite d’avoir jeté certaines bases» selon Frédéric Goldsmith. Elle a aussi permis d’aborder le thème de la licence globale, vite évacué par la SACD, qui souhaite préserver «le droit des auteurs et des producteurs à fixer leur mode de rémunération»; une liberté qualifiée de «fondamentale».
De nouveaux rendez-vous ont été fixés autour de la table, le CSA en particulier a annoncé l’organisation d’un colloque sur les téléviseurs connectés en février prochain. Son cas devrait aussi être examiné dans les mois à venir, puisque l’idée d’un «CSA de l’Internet», écartée début 2009 par les sénateurs, ainsi que d’une fusion des autorités administratives, a de nouveau été évoquée. Visant une régulation plus adéquate du continuum de services en ligne, cette éventualité semble faire du chemin du côté des parlementaires.
En attendant de connaître le sort qui lui sera réservé en France, proposition de loi ou ordonnance, la neutralité des réseaux est au menu d’autres réflexions, dont la récente mission d’information de la Commission des affaires économiques de l’Assemblée, chapeautée par Laure de La Raudière (UMP) et Corinne Ehrel (SRC).
Bref, comme remarque le clairvoyant sénateur Hérisson,
c’est un thème dont on n’a pas fini d’entendre parler dans les mois et les années venir.
Au risque de voir petit à petit se dissoudre le substrat même du principe de neutralité.
__
]]>