Faut-il écouter tout le Web ? En matière de veille de l’opinion, l’inquiétude reste grande de laisser passer quelque chose d’important. En 2004 lors de la création de Opinion Act, la volumétrie des échanges sur internet était telle que la question de l’exhaustivité était légitime. On pouvait y prétendre même avec des moyens manuels de recherche pour peu qu’on y consacre le temps nécessaire.
Aujourd’hui, alors que ni la technologie ni l’équation économique ne le permettent, l’exhaustivité de la veille reste un absolu rassurant mais illusoire. Selon le type de veille, différentes difficultés se conjuguent.
Veille d’alerte ou veille temps réel : l’enjeu du signal faible
Dans le cas de veille d’alerte, la recherche des signaux faibles de risque ou d’opportunité impose l’exhaustivité. Il est nécessaire de recourir à une conjugaison d’outils de veille adaptés à chaque typologie d’espace. Chaque dispositif de veille numérique est alors unique et sa fiabilité dépend du bon mix d’outils mais aussi d’une période incompressible de rodage et de paramétrage.
Veille analytique ou veille d’exploration : l’enjeu de la qualité des données
Dans le cas d’une veille sectorielle sur un périmètre large, par exemple pour la réalisation d’un bilan de réputation ou la cartographie d’un marché, l’enjeu est de pouvoir travailler sur un corpus à taille humaine, permettant un traitement humain des conversations afin d’aboutir à des données de qualité. Mais si les sciences statistiques savent depuis longtemps constituer un échantillon représentatif de la population française, que doit être un échantillon représentatif du web ?
Un échantillonnage nécessite de connaître la structure de la population étudiée, or la population du web est en permanente évolution. Néanmoins, nous avons pu constater que l’expression sur le web pouvait être segmentée en catégories de sources qui, elles, sont homogènes et stables dans leur composition, constituant autant de strates pour mettre en place un échantillonnage.
Chez Opinion Act, nous avons donc imaginé, avec l’aide de nos statisticiens, une nouvelle approche : une méthodologie mixant, par des procédés itératifs, une démarche qualitative et une approche quantitative afin de combler la discontinuité entre la masse de l’opinion et la finesse d’un verbatim.
Le Lab de Opinion Act a ainsi développé son propre protocole pour les études de réputation et son outil de constitution d’échantillons représentatifs de l’opinion spontanément exprimée en ligne.
Veille des comportements de masse dans l’opinion : l’enjeu de la rapidité d’interprétation
Enfin, dans le cas d’une veille sur Twitter, sur Facebook ou dans les média, liée à une actualité engendrant des mouvements de masse dans l’opinion : nombreuses retombées médiatiques, forte viralité, forte réactivité dans les réseaux sociaux…, l’enjeu sera de décrypter rapidement la situation pour décider des actions à mener :
- Comprendre les techniques d’influence en présence sur les réseaux sociaux et la « psychologie de la foule
- Identifier le type de crise auquel on a à faire
- Evaluer quelle pourra être la propagation et anticiper la suite de la crise
- Pouvoir comparer avec des crises précédentes vécues par d’autres acteurs et rapidement se benchmarker
Pour ce type de veille de crise très spécifique, il ne s’agit plus d’exhaustivité mais plutôt d’interprétation d’énormes volumes de données à l’aide d’outils conçus pour les big data. Il s’agit de modèles mathématiques qui permettent de faciliter et accélérer l’analyse de la crise.
Adapter ses méthodologies de veille au sujet de surveillance et à ses objectifs s’avère donc indispensable. Les 3 V des big data (Variété, vélocité, volume) créent 3 types de difficultés qui se cumulent en matière de « donnée conversationnelle » et imposent de bien questionner le besoin d’exhaustivité devenu aujourd’hui une gageure.
EN SAVOIR PLUS
La représentativité de l’opinion dans la veille Internet
Veille Internet et big data
Enquête d’opinion à l’épreuve des Big Data