Le Web2.0 en surchauffe: Trop de partages tue le partage ?

closeCet article a été publié il y a 3 ans 1 jour, il est possible qu’il ne soit plus à jour. Les informations proposées sont donc peut-être expirées.

Alors que Facebook vient de se faire un petit lifting, alors que Twitter vient de lancer son outil analytics et attendu que Google+ s’est ouvert au commun des mortels, il semble que le web soit en surchauffe et ses utilisateurs en grève comme les profs aujourd’hui.

Je m’explique: depuis quelques semaines (voir quelques mois), je remarque un essoufflement des partages via les différents réseaux sociaux. Cette baisse de régime influe fortement sur l’audience des sites web. Alors certes, il y a un effet de saisonnalité et les mois d’été sont logiquement moins propices à la diffusion des messages, mais quand même.

Mon constat ne se limite pas uniquement à ma sphère proche (comme Socializ.fr ou MyCM) mais de manière générale, j’ai le sentiment qu’une diminution significative des partages de liens est en cours sur le web. Alors, where is the matter ? Pas dans ma cuisine …

Infobésité, multiplication des outils, lassitude, effet de mode, guerre d’influence, concurrence impitoyable, manque de résultats, monétisation à tout prix, edgerank ???

Autant de problématiques qui peuvent venir justifier ce burnout du web2.0 (temporaire ou pas ?) et qui risquent de changer nos usages dans les prochains mois.

La course aux Buzz, overdose d’infos et mort des blogs ?

Koreus.com

Dernier exemple en date, l’apparition de Timeline sur Facebook Jeudi dernier. 6 jours après, le constat est sans appel. En ne prenant que les résultats de Google en Français, on s’aperçoit que le sujet est déjà traité 86 400 fois.

Du plus petit blogueur au site de presse le plus important, tout le monde s’empare de la même information pour la décliner en article, en espérant être le premier à publier et ainsi attirer le maximum de lecteurs sur son site. Tout le monde cherche LE scoop, LE buzz.

Spécialisée ou non, généraliste ou pas, locale et nationale, la presse se fait l’écho du dernier outil à la mode, du dernier réseau tendance… Que PC Impact parle de Facebook, cela me semble assez logique tout comme le blog spécialisé. Mais que la presse quotidienne régionale traite elle aussi ce type d’info, je me pose effectivement des questions.

Tout le monde parle finalement de la même chose, du même sujet et plus personne ne se démarque du troupeau. Bien dommage alors que l’on sait que la presse papier va mal… ou pas selon Dijnscope.

D’ailleurs, lors du Médiacamp de Dijon en Mai dernier, on parlait déjà des relations presse/journalistes/blogueurs. Où est la différence entre le blogueur et le journaliste/veilleur sur le web aujourd’hui ? La curation est elle une voie pour éviter l’infobésité ?

Lors du dernier colloque « Informations, l’effet numérique » à Bordeaux, une des questions était de savoir si les blogs et Twitter, en particulier, étaient une forme de concurrence ou tout simplement une source d’information. Pour ma part, 2 réponses me semblent évidentes. Twitter est réellement une source d’information pour la presse alors que les blogs sont, eux, une vraie concurrence pour la presse. Mais la tendance s’inverse à mes yeux aujourd’hui, je pense que la presse est devenue la principale concurrence des blogs.

La presse a compris l’importance du web2.0, des réseaux sociaux et encore plus l’importance du blog. Je le pense sincèrement et le virage semble être assez bien engagé de ce côté. Les organes de presse généralistes se sont pratiquement tous lancés dans des plateformes de blog et de diffusion de contenus. Les journalistes se sont également mis à blogguer pour approfondir la ligne éditoriale et développer de manière plus précise leurs expertises.

 Mais au final, moi en tant que blogueur, je me dis « secrètement » qu’il faut que je me démarque pour éviter de me faire manger par les grosses machines et exister un minimum. Car ne nous voilons pas la face, qui aujourd’hui écrit un article sur un blog pour ne pas être lu un minimum ? Qui ne surveille pas, au moins mensuellement, le nombre de visiteurs reçus ? Quel auteur de blog ne partage pas au minimum ces articles sur les réseaux sociaux ?

Finalement, cette course aux Buzz, initiée par l’ensemble des acteurs et largement favorisée par les médias sociaux, pousse un peu plus notre société dans l’infobésité et la perte de qualité des informations. C’est sans doute, aussi, la fin des blogs sans intérêts, sans expertise, ceux qui ne font que reprendre l’information sans essayer de la décortiquer, l’analyser.

Le web est une terre de production de contenu de « masse » (comme les élevages de poulet) venant assourdir notre quotidien en occultant la qualité et l’expertise. Pierre-Olivier Carles, Entrepreneur du Web, dit d’ailleurs que « le Web va perdre doucement ce qu’il a de meilleur au profit de ce qu’il a de pire car il est beaucoup plus facile de créer dans la médiocrité que dans l’excellence. »

Genaro Bardy (NaroMinded) parlait déjà d’une certaine lassitude et d’un manque cruel de qualité sur les blogs francophones et titrait son article d’un « les blogueurs sont condamnés à disparaître ». Tenir un blog est une activité passionnante mais chronophage et les auteurs n’ont pas forcément le temps de maintenir la qualité rédactionnelle en préférant tomber dans la facile « course aux buzz ». Tout comme il semble difficile de changer sa ligne éditoriale sans prendre un minimum de recul.

Je pense que l’outil Blog n’est pas mort mais arrive à son stade de maturation. C’est-à-dire que c’est l’expertise et la qualité du contenu qui prime aujourd’hui sur la quantité et la rapidité de publication. Il est donc toujours nécessaire de maintenir la bonne équation entre qualité et quantité pour assurer sa visibilité face à la concurrence.

C’est pourquoi, en partie, on peut expliquer une baisse des partages sur les réseaux de part le manque de qualité et/ou redondance des contenus produits sur les blogs Francophone

Le blog doit rester l’élément central d’une stratégie de présence sur le web et doit pousser son contenu « de qualité » sur les médias sociaux. Ce débat qui revient régulièrement chaque année montre bien que les blogs sont toujours là et ne se laisse pas dépasser par des tweets ou des mises à jour de statut. Il y a donc eu un transfert de la blogosphère « généraliste » vers les réseaux sociaux, mais la vraie recette est bien de ramener le public des réseaux sociaux sur son patrimoine, sur ce que nous possédons réellement. On nous annonçait déjà la mort des blogs en 2007, Frenchweb relance le débat en 2011.

Ce repositionnement des blogs et cette course aux buzz (infobésité) ne sont peut être pas les seuls pistes pour expliquer la baisse des partages sur les réseaux sociaux.

Multiplication des outils, effet de mode et lassitude ?

Le mastodonte qu’est Facebook semble être l’outil numéro 1 pour partager son contenu et attirer des visiteurs sur son site. Cette affirmation semble se vérifier dans plusieurs domaines. En Août 2011, Facebook représente 66% du traffic social. Mais, Facebook n’est pas une solution miracle comme les réseaux sociaux de manière générale. C’est peut être ce point qui peut justifier une baisse du trafic venant des réseaux sociaux. Chaque réseau social a aujourd’hui son bouton de partage et l’arrivé de Google+ n’a fait que relancer cette guerre des boutons.

En France, au mois de Mars 2011, Facebook représentait 1,5% des visites des sites d’actualité français selon une étude réalisée par AT Internet et en Juillet, le trafic en provenance des moteurs de recherche était en hausse de 1pts par rapport à 2010 soit 28%. Les réseaux sociaux ne sont donc pas à l’origine d’une augmentation de traffic, bien au contraire.

Peu importe la théorie avancée, le traffic venant des moteurs de recherche est encore plus important en 2011 qu’en 2010 et confirme une nouvelle fois que le contenu et le référencement sont les ROIS pour maximiser l’apport de traffic.

De plus, l’arrivée de Google+, malgré ses utilisateurs inactifs, a chamboulé un peu plus le paysage radieux des réseaux sociaux. En se mettant à la place de l’utilisateur classique, il me semble compliqué de pouvoir gérer sa présence de manière efficace sur plusieurs réseaux en même temps. La segmentation du marché des réseaux sociaux ne fait que diminuer le pouvoir de diffusion individuel et abaisse ainsi le nombre de partage précédemment constaté.

En plus de cette répartition des utilisateurs, le trafic apporté par les réseaux sociaux est celui au taux de rebond le plus élevé. La conséquence est directe pour les sites puisque les visiteurs ne visitent que peu de pages. On constate également plus de visiteurs uniques en provenance de Facebook que de Twitter, ce qui peut justifier un nombre de retweets moins important.

2 autres points viennent également renforcer cette baisse des partages sur les réseaux. Le premier étant une forme de lassitude chez les jeunes dans l’utilisation des réseaux. Tout comme les blogs, les réseaux sociaux atteignent peut être également un seuil de maturité et deviennent ennuyeux pour les nouvelles générations.

Le deuxième point est sans aucun doute les changements intempestifs et trop réguliers de Facebook. Les derniers changements déplaisent à 86% des utilisateurs et peuvent les faire abandonner le réseau social de Palo Alto.

Pour finir, les algorithmes décident de tout et principalement des publications que les utilisateurs voient.

EdgeRank, maîtriser la force !

Malgré les partages et les problématiques énoncées ci dessus, on se rend bien compte que le trafic venant des réseaux sociaux est moins important que ces derniers mois. L’edgeRank de Facebook peut en être la cause. C’est lui qui détermine le contenu figurant dans le fil d’actualité.

De manière générale, un membre d’une page Facebook n’y retourne quasiment pas après avoir cliqué sur le bouton J’aime. Ce dernier se cantonne à une utilisation basique du système via le fil d’actualité. L’enjeu est donc de maximiser la visibilité des informations sur la page principale et espérer pour que les utilisateurs les voient.

Je dis espérer car comme beaucoup d’algorithme, celui de Facebook n’est pas évident à prendre en main. Il faut donc connaître le fonctionnement du système et analyser les résultats pour pouvoir adapter son contenu à l’audience « Facebookienne ». Et c’est loin d’être le plus évident.

Comme je l’ai indiqué en début d’article, toutes ces raisons peuvent expliquer la baisse d’engagement sur les réseaux sociaux et la diminution significative que j’ai observé sur différents sites. Mais comme tous, il est plus facile de tomber dans la facilité d’un contenu redondant et déjà traité que de réellement se mettre à réfléchir et à approfondir les sujets.

J’attends donc avec impatience vos réactions, vos commentaires, vos avis sur cet article qui m’a juste pris 3h de temps, de recherches, de réflexions.

Mais l’avenir est sans doute là !

About Author

Guillaume Sagnes

Guillaume Sagnes  (7 articles)

Passionné par la communication digitale et après 8 ans passés sur le terrain dans des fonctions commerciales, je suis aujourd'hui dirigeant de l'Agence Socializy et Consultant en Stratégie de Communication Digitale & StreetMarketing. Socializy est une agence conseil en communication digitale à Dijon et spécialisée dans la mise en place de stratégie digitale, le positionnement des entreprises sur les réseaux sociaux et la création d'opération de marketing alternatif (streetmarketing et guérilla marketing). Notre agence veille également sur les nouvelles tendances du marketing digital comme le ROPO et le SOLOMO. Je suis également formateur à l'IUT Infocom de Besançon depuis 2011 et à la CCI du Jura. Barcampeur, Blogueur, Buveur de café

Commenter l'article