Avec plus de 400 millions de tweets créés par jour, soit une gigantesque mine de données personnelles, le business des data Twitter est aujourd'hui un domaine en forte ébullition.
Les réseaux sociaux (RS) sont devenus omniprésents et l'explosion des gazouillis sur Twitter participe à un bouleversement de la production et de la circulation de l'information au niveau mondial. Chacun peut donner son avis, réagir entre amis mais également être le témoin majeur et producteur d'information : on pense bien sur au printemps arabe, aux grandres catastrophes (climatiques, attentats) mais également évènements plus légers et non moins populaires (rencontres sportives, artistes en spectacles ...)
De nombreux secteurs et domaines se trouvent ainsi bouleversés par Twitter qui représente également de nouveaux enjeux pour les marques. On pense à la presse, à la télévision, mais également à des secteurs comme le commerce, la publicité ... et même la finance.
Citons 3 exemples récents afin d'illustrer notre propos :
·Début avril, la SEC (le gendarme de la bourse américaine) reconnaît l'usage de Facebook et Twitter, comme canal de communication officiel des entreprises cotées
·Le 23 avril dernier, un faux tweet de The Associated Press (@AP) "Urgent : Deux explosions à la Maison Blanche, Barack Obama blessé", a fait brutalement chuter la Bourse Américaine de 1% en moins de 5 minutes. Il s'est bien sûr avéré qu'il s'agissait d'un « hoax », suite au piratage du compte AP possédant près de 2 millions de followers.
·La présence du pape sur twitter depuis décembre 2012 avec la création du compte @Pontifex et déjà près de 2,5 millions de followers.
Evidemment quand on parle business et Twitter, on pense tout de suite à la publicité dont le développement est fondamental pour Twitter. Mais notre analyse est focalisée plus spécifiquement sur l'exploitation et le rôle des datas, très souvent pierres angulaires de la publicité digitale. Nous ne développerons pas non plus la dimension purement technologique de ce qu'on appelle le bigdata, même si l'essor de nouveaux outils et solutions (Hadoop, mapreduce, noqsl, cloud ...) facilite le traitement de grands volumes de données.
A qui donc le business des datas Twitter profite et qui sont donc ses nouveaux acteurs ?
Décomposons le processus de valorisation des data Twitter en trois phases: production, distribution et transformation.
PRODUCTION
L'acteur principal est évidemment Twitter et produire plus de datas, nos amis community manager parleront de tweets ou de conversations, est au coeur des évolutions de Twitter.
Produire plus de tweets nécessite de développer les usages existant et d'en favoriser de nouveaux.
De nombreuses initiatives vont dans ce sens. L'annonce récente des nouvelles "Twitter Cards", permettant d'enrichir un tweet avec des meta-données, permettra de développer de nouveaux usages et le nombre d'utilisateurs. Par exemple, lorsqu'un utilisateur partagera un produit d'un site eCommerce (c'est également vrai pour un article de presse) sur Twitter, son tweet pourra présenter le produit avec une image, un descriptif, un prix … en fait une mini fiche produit directement dans le fil d'actualité. De quoi enrichir les expériences et l'attrait de Twitter et donc sa plus forte intégration chez de nouveaux acteurs.
Historiquement, la stratégie de développement de Twitter est basée sur la mise à disposition d'une api libre d'accès permettant la création de nombreux services et usages par des acteurs tiers (ex Seemic, Hootsuite …). Les api permettent également de récupérer les tweets et meta data associées pour les analyser.
DISTRIBUTION
Pour collecter des tweets sur un sujet en particulier (mot clé, marque, #hastag, compte twitter, lieu ...) on peut bien sûr utiliser l'api de Twitter. Mais cette méthode comporte deux limites importantes.
D'une part, l'historique disponible est relativement faible (quelques semaines) et par ailleurs le volume de tweets récupérable est limité. En effet, twitter a bridé les appels des applications tierces à environ 1% de l'ensemble du flux de tweets publics échangés sur sa plateforme, dénommé le Firehose (littéralement lance d'incendie), soit une grosse cinquantaine de tweets par seconde. Ce qui pour des requêtes sur des termes génériques ou pour suivre des évènements à forte audience est un seuil rapidement atteignable.
Seuls quelques rares services ont un accès complet et en direct au Firehose de twitter. On peut citer Sysomos, Salesforce Radian6, Dataminr qui propose par exemple des services d'analyse pour la finance.
Aussi, si votre application a une obligation d'exhaustivité ou nécessite de nombreuses requêtes complexes à Twitter (recherche d'influenceurs, eReputation, calcul de tendance …) ou que votre marque est très populaire, le seul moyen est de passer par l'un de 3 revendeurs de data certifiées par Twitter dont les deux plus connus sont GNIP et Datasift.
Et ces sociétés connaissent un business florissant compte tenu des nombreux services et startups se créant actuellement pour analyser et lire dans les data twitter … nouveau graal du marketing.
Ainsi Datasfit affiche près de 300 entreprises clientes et a levé 15 millions de dollars en novembre 2012. La valeur d'un Datasift réside dans le fait de pouvoir formuler des requêtes sophistiquées (par exemple si je veux analyser les tweets en anglais, géolocalisés à Londres avec plus de 5 RT sur une liste de mots clés) et de récupérer simplement l'exhaustivité des résultats en temps réel. Mais Datasift apporte également de la valeur complémentaire en enrichissant les réponses sous forme de nouvelles méta-données (âge, sentiment, Klout Score …). De plus ces entreprises permettent également d'accéder aux archives Twitter et donc d'acheter l'historique de tweets pour un sujet particulier.
Précisons que les data accessibles sont les seuls tweets publics, et jamais les tweets privés ou autre DM (message en direct entre utilisateurs n'apparaissant pas sur les fils d'actualité publique).
On voit donc que ces revendeurs sont des acteurs clés dans le business des data sociales.
Combien cela coûte t il? Un minimum de 0,10$ pour 1000 tweets récupérés est imposé par Twitter auquel s'ajoutera des coûts supplémentaires selon la complexité des requêtes.
TRANSFORMATION
Quelques tweets isolés ou des millions de tweets ne restent que de la donnée brute et n'ont donc que peu d'intérêt. La data reste la matière première de cette nouvelle industrie, mais pour qu'elle puisse présenter de la valeur il faudra donc la trier, la transformer en information et lui donner du sens, la contextualiser. Et chaque secteur, chaque métier aura des besoins spécifiques : suivi de l'eReputation, recherche d'influenceurs, mesure des conversations, identification de tendances, relation client ...
La TV est bien un de ces secteurs qui connaissent un fort impact de twitter, les spectateurs partagent de plus en plus en temps réel leur avis et émotions avec leur communauté grâce à leurs smartphones ou tablettes... Ce mouvement est de plus amplifié par l'intégration croissante de dispositifs sociaux dans la conception des émissions : relais des tweets sur les écrans TV, annonce du #hastag par le présentateur et appel à commenter, dispositif de double écran dédié …
Par exemple TvTweet, service de suivi de l'audience Twitter des émissions télé, a mesuré pour la France une évolution de +1600% en douze mois du volume de tweets produits autour des émissions du petit écran (mars 2013 vs mars 2012).
« Les NRJ Music Awards ont généré 1,64 millions de tweets lors du direct de trois heures, avec une pointe à 300 tweets/seconde pendant Psy» nous précise Thomas Landsprung patron de TvTweet ». « On atteint très rapidement le seuil des 58 tweets par seconde, la limite de l'api de streaming Tweeter, c'est pour cela que nous utilisons GNIP depuis quelques temps », ce qui permet à la société de suivre de façon exhaustive l'activité sur les réseaux sociaux des programmes de 6 pays européens.
La Social TV est donc en effervescence et mesurer les conversations, les volumes d'échange, la popularité des émissions et des publicités est devenu un enjeu majeur. Twitter souhaite en tirer directement parti, d'ou des mouvements récents :
·signature d'un accord exclusif avec Nielsen pour produire le premier indicateur de visibilité de la Social TV sur twitter, le « Nielsen Twitter TV Rating », avec l'ambition de devenir la mesure de référence pour le marché publicitaire.
·rachat de Bluenfin Labs, un des principaux acteurs de la « Social TV Analytics » au US, qui avait levé 12 millions $ en janvier
L'audiovisuel n'est pas le seul média traditionnel impacté. La presse et les sites d'information sont bouleversés par ce nouveau paradigme de la production et de la circulation de l'information par un public toujours plus connecté. Mais l'analyse fine de ce qui se dit et s'échange peut présenter également de nouvelles opportunités pour ces médias. C'est par exemple la vocation d'un service tel que Trendsboard qui permet aux journalistes d'identifier et prédire les buzz en temps réels. Ce nouveau service utilise Datasift comme fournisseur de data twitter mais il y applique en plus des transformations très sophistiquées. « Les services d'analyse de twitter doivent monter en gamme, permettre une analyse sémantique fine et une mise en contexte afin de créer de la valeur » nous explique Jean Véronis, cofondateur de Trendsboard et spécialiste du traitement automatique du langage.
Les acteurs qui valorisent les data sociales sont nombreux et l'écosystème français en est richement pourvu. Sans être exhaustif, on peut citer Mesagraph, très actif sur la social tv, Synthesio, Linkfluence … ou de plus jeunes pousses comme Bringr, Dictanova ou Xiko.
Comme on le voit, le business des data twitter devrait donc rester dynamique dans les prochaines années.
Toutefois certains risques sont à prendre en considération.
Tout d'abord, se pose la question de la qualité des informations partagées sur le réseau. D'une part de nombreux comptes twitter sont en réalité des robots programmés pour publier automatiquement du contenu à la limite du spam social. D'autre part, comment s'assurer de la véracité des informations recueillies ? Comment éviter les rumeurs et autres trolls. La encore certaines sociétés développent des méthodes sophistiquées pour tenter d'identifier le bon grain de l'ivraie.
Enfin il existe un risque au niveau des réglementations concernant la protection de la vie privée et des données personnelles (cf projet de règlement européen). Est ce que l'utilisateur a bien conscience de l'utilisation faite de ses informations, quid d'un vrai droit à l'oubli et quelles sont les limites raisonnables à ne pas franchir par les marketeurs ?
Il est bon de se poser ces questions afin d'avoir un contrat clair avec les utilisateurs ou ses clients au risque d'augmenter leur défiance et d'alimenter des revendications toujours plus fortes (néanmoins légitimes) de contrôle … et de voir l'industrie des datas et plus globalement du digital se tirer une balle dans le pied.
Jimi Fontaine est co-fondateur de Graphinium, solution de Social Commerce et Social Analytique en mode saas