Du fait de sa nature technologique, Internet est le canal du tout mesurable. Bien plus que tout autre canal de diffusion d’informations, Internet offre des possibilités de mesures multiples. C’est dans la façon même dont le réseau a été pensé d’un point de vu technique qu’il faut chercher les raisons de cette hypermesure. Toutes les technologies qui structurent Internet permettent des mesures qui ne sont pas possibles sur d’autres canaux de diffusion.

Adresse IP et mesure du nombre d’ordinateurs connectés

Chaque ordinateur qui se connecte au réseau est identifié par une adresse unique, la fameuse adresse IP. D’ailleurs, le dénombrement du nombre d’ordinateurs connectés en comptant le nombre d’adresses IP a constitué le tout premier type de mesure sur Internet et a longtemps permis de mesurer l’adoption et l’usage du réseau.

Logs et mesure des hits

Les protocoles Internet, en tête desquels le protocole http, ont constitué une autre technologie qui a permis de mettre en place la mesure sur Internet. En effet, sur Internet, la connexion à un serveur distant via un protocole de connexion comme le http génère des logs, c’est-à-dire un historique d’évènements. Autrement dit chaque connexion à un serveur web génère une nouvelle ligne d’historique dans un fichier (le journal ou logfile).

L’analyse de ces logs a constitué le second type de mesure sur Internet. Comme chaque requête sur le serveur distant est enregistrée dans le logfile, il suffit alors de lire ce fichier pour compter le nombre de lignes et ainsi en déduire la popularité d’un site. On parle alors de hit qui est l’indicateur utilisé pour compter le nombre de requêtes faites sur le serveur web. Deux autres mesures se sont développées grâce à l’analyse des logs. Tout d’abord le nombre de page vues (PV) qui est le nombre de requêtes faites au serveur web pour visionner une page (et pas un autre élément comme une image). Le second indicateur est la visite qui se défini comme une séquence de requêtes faite par un client unique sur le serveur et qui expire après une certaine période d’inactivité (généralement 30 minutes).

La méthode de mesure par analyse des logs a été utilisée au début des années 1990 sans poser de réels problèmes. La méthode était fiable puisque à cette époque chaque page web était constituée d’un seul fichier html qui contenait principalement du texte. Cependant, les pages ont rapidement commencé à s’enrichir avec notamment l’apparition d’images ou le chargement de plusieurs fichiers pour afficher une même page web. Ainsi, au final, les hits mesuraient de plus en plus  la complexité d’une page web (nombre d’éléments appelé par cette page) que la réelle popularité de cette page. Les notions de visites et de pages vues sont restées plus fiables. Cependant, l’apparition de robots (comme ceux des moteurs de recherche), des proxys web ou l’attribution d’adresses IP dynamiques aux fournisseurs d’accès Internet ont rendu l’identification des visiteurs uniques bien plus difficile. De plus les techniques de mise en cache des contenus (qui permettent de stocker du contenu sur la machine de l’utilisateur afin d’accélérer la navigation sur des sites visités régulièrement en affichant ce contenu stocké plutôt que le contenu distant) ont faussé les logs. Avec les méthodes de cache, le contenu distant n’est pas appelé et il n’y a donc pas d’inscription dans les logs. La mesure des pages vues s’est donc à son tour trouvée faussée.

La mesure par analyse des logs a donc peu à peu décliné. Elle reste aujourd’hui principalement utilisée par les administrateurs système pour mesurer l’utilisation des serveurs, mais n’est plus une méthode utilisée pour la mesure marketing (ou alors de façon hybride avec la méthode de marquage que nous maintenant détailler).

Marquage des pages et mesures avancés

La dernière technologie structurante d’Internet qui intrinsèquement explique la richesse de la mesure sur Internet est le navigateur et l’interaction de celui-ci avec les pages visitées par l’Internaute. Si on s’intéresse aux technologies de diffusion d’informations, on constate que bien souvent l’objet technologique qui permet la diffusion est en quelque sorte inerte dans le sens où il reçoit seulement de l’information et qu’il n’est ni en interaction avec la source de diffusion, ni avec l’environnement de diffusion (poste de télévision analogique, poste de radio, journal papier, etc…). C’est tout le contraire avec le navigateur web. En plus de recevoir de l’information et d’interpréter des informations, le navigateur renvoi des informations et interagi avec la source de diffusion (la page web ou plus généralement le serveur hébergeant cette page). De même le navigateur est en interaction permanente avec son environnement c’est-à-dire le système d’exploitation dans lequel il s’exécute. Cette double interactivité a permis de développer une méthode de mesure à la base des Web Analytics : la mesure par marqueurs ou tags.

La méthode par marquage des pages fait appel au langage de programmation JavaScript. En effet, un marqueur est en fait un code JavaScript (script) intégré directement au sein de la page Web et qui est exécuté par le client à travers le navigateur. Ce code est capable de collecté de nombreuses données sur le poste client (type de navigateur, adresse IP, système d’exploitation, résolution de l’écran, etc…) mais aussi sur la source de diffusion et en particulier le fameux referer (information indiquant l’URL de la page où se situe le lien qu’un internaute a suivi pour arriver sur la page qu’il visite actuellement). La collecte de l’adresse IP est intéressante car celles-ci étant attribuées géographiquement elles permettent une géolocalisation relativement fiable du poste client et donc de l’internaute. Le code JavaScript est également capable de manipuler les cookies, ces fameux petits fichiers textes stockés par le navigateur sur l’ordinateur de l’internaute. Le cookie permet ainsi d’enregistrer des informations sur le visiteur ou encore son parcours sur le site. L’avantage du marqueur JavaScript par rapport à la méthode de mesure par les logs, c’est que le code est exécuté à chaque chargement d’une page par l’internaute et que toutes les données collectées à chaque chargement de page sont envoyé sur un serveur tiers en charge de les agréger et de les analyser afin de produire des rapports avec des indicateurs pertinents.

La mesure par marqueur a en effet permet l’apparition de nombreux indicateurs qui sont à la base des Web Analytics.

  • Pages Vues : nombre de fois que le marqueur a été exécuté
  • Visite : série d’exécution du marqueur par un même client sans période d’inactivité (généralement un maximum de 30 minutes entre deux pages vues)
  • Visiteur unique : dédoublonnement des visites pour isoler les exécutions du marqueur par un client unique au cours d’une période de temps (jour, semaine, mois…). Cette mesure ce base souvent sur un cookie et est donc associé à un navigateur par à une personne (par exemple une personne visitant le même site dans la journée depuis le travail et le domicile, donc avec deux navigateurs différents, sera comptabilisé comme deux visiteurs uniques).
  • Visiteur connu/Nouveau Visiteur (repeat/new visitor) : un visiteur qui a déjà fait une visite au cours de la période de temps considéré / visiteur qui n’a pas fait de visite précédemment
  • Taux de rebond : taux mesurant le nombre de visite à une page (combien de personnes sont arrivées sur le site et n’ont pas visités d’autres pages).
  • Etc…

Il est ensuite possible d’appliquer une segmentation à l’ensemble de ces indicateurs à travers les données recueillis par le marqueur :

  • Données du navigateur (type de navigateur, système d’exploitation, résolution d’écran, support du flash, etc…)
  • Données de géolocalisation
  • Données de navigation (referer, page d’entrée, page de sortie, etc…)
  • Données personnalisées : il est en effet possible de transmettre des paramètres personnalisées au marqueur afin d’affiner la segmentation

Réaliser le marketing d’un produit ou d’un service sur Internet n’est pas une chose aisée car c’est un canal qui est intrinsèquement différent des canaux de communication traditionnels (télévision, radio, presse, cinéma, affichage). On peut résumer la spécificité du canal internet par les trois caractéristiques suivantes : la multiplicité des supports, l’additivité des actions et l’évolution des usages.

La multiplicité des supports

Pour mieux comprendre la notion de multiplicité des supports, on peut penser aux canaux de communication traditionnels pour lesquels l’approche est presque toujours identique : cibles, diffusions, emplacements et formats. Dans ce type de canaux, le support reste globalement identique, seuls les formats peuvent être amenés à évoluer. Au contraire sur Internet, les supports sont multiples. Le support Internet recouvre des usages différents qui sont autant de support pour le marketing (par exemple le web et l’e-mail). Mais le web en lui-même offre également une multitude de support : un site avec son contenu, son design, son nom de domaine est un support de communication à part entière, tout comme peuvent l’être les moteurs de recherche, des sites tiers diffusant des bannières, un blog influant ou encore une plateforme de partage de vidéo. Et ne parlons pas des formats, puisque ceux-ci ne sont pas toujours très clairement définis. C’est le cas par exemple de la vidéo puisque les sites de partage comme Youtube ou Dailymotion en sont toujours à tester différents formats vidéo publicitaire (comme le pré-roll, un clip d’une dizaine de secondes diffusé avant la vidéo ; le toaster ad ou overlay, le contenu publicitaire en superposition de la vidéo avec possibilité de le masquer ; le home theater ad, effet levé de rideau par-dessus le player vidéo). Bref, autant le marketeur qui dit « on va communiquer à la télé » définit immédiatement son support (et presque son format, le fameux clip de 30s), autant celui qui dit « on va communiquer sur le web », n’a encore rien dit !

Additivité des actions

La notion d’additivité pourrait se résumer dans la formule suivante empruntée à Kevin Gallot (Professeur de marketing online à l’Université de Limoges) : « à la différence d’autres supports, les pratiques marketing sur Internet s’ajoutent et ne se remplacent pas ». Autrement dit, faire du marketing sur Internet, c’est utiliser des supports et des outils variés qui s’ajoutent les uns aux autres et idéalement se complètent. Par exemple, le référencement (SEO) constitue une des pratiques de e-marketing les plus anciennes qui est apparue avec la naissance des moteurs de recherche et aujourd’hui encore c’est une action essentielle pour un e-marketeur.

Evolution des usages

L’exemple précédent va nous permettre également de mieux comprendre la notion d’évolution des usages. L’idée ici est que l’évolution des usages sur Internet conduit à l’apparition de nouvelles pratiques marketing. Le référencement est lié à l’apparition des moteurs de recherche, le développement de l’affichage publicitaire par bannière correspond à l’avènement du modèle de Portail Web pendant l’ère 1.0 et plus récemment le développement du buzz marketing a été rendu possible grâce aux nouveaux usages nés avec les plateformes de partage de vidéos. On peut donc voir qu’il existe une forte imbrication entre technologie, outil, usage, support et format et que le e-marketeur doit rester vigilant quant à l’apparition d’une nouvelle technologie, d’un nouvel outil ou d’un nouvel usage car ce sont autant de pistes nouvelles pour des actions marketing en ligne.

Troisième et dernier billet de la série consacrée au Web 2.0. Les précédents billets ont permis de voir comment le terme Web 2.0 qui désignait initialement la période de renouveau du web, a plutôt désigné par la suite l’ensemble des services/acteurs de ce renouveau et les innovations techno-conceptuelles qui lui sont lié.

Dans le précédent billet, on pouvait voir une iconographie représentant le foisonnement d’acteur dans la sphère 2.0. Mais quel est en fin de compte le point commun entre tous ces acteurs/services ? Pour répondre à cette question je reprendrai ce que disait Hubert Guillaud à savoir que l’essence de ces services est de « replacer l’utilisateur et ses relations avec les autres, plutôt qu’avec des contenus ou des machines, au centre de l’Internet. Le web 2.0 est résolument relationnel ». Cette notion est à mon sens fondamental et doit se comprendre à travers trois usages génériques :

  • Le partage : possibilité de partager à n’importe quel moment n’importe quel contenu
  • La contribution : l’internaute est passé d’un rôle passif à un rôle actif (publication via un blog ou un wiki, commentaire/avis/opinion, notation, vote, tags, etc…)
  • La communauté : possibilité de se connecter, de discuter et d’engager une relation avec d’autres internautes

Ces usages qui peuvent paraître en soit anecdotiques sont pourtant centraux et ont créé un véritable paradigme. Ce que j’entendu par paradigme, c’est une certain façon de se représenter, de penser le web. Cette représentation a des impacts sur tout l’écosystème du web, de la façon de créer un site à la façon de le marketer. Ainsi, des standards se sont imposés et il semble difficile de revenir en arrière. On peut citer comme exemple les sites de presse en ligne qui se sont peu à peu ouverts aux commentaires des internautes et ont ainsi embrassé le paradigme 2.0. Du côté des internautes les usages 2.0 se sont aussi démocratisés. Le monde professionnel entre aussi peu à peu dans l’univers 2.0 à travers le concept d’entreprise 2.0. Enfin dernière sphère qui semblait réticente, la politique se met également au 2.0 : on a parlé de campagne 2.0 à propos de la campagne électorale de Barack Obama ; plus proche de nous, lors des élections européennes en France, la liste Europe Ecologie a su très bien utiliser les usages du web 2.0 pour mener campagne. Deux exemples politiques, deux succès dans les urnes !

Bref, ce qu’il s’agit de comprendre ici, c’est que les usages créés par le web 2.0 ont largement débordé de la sphère web et on eu des impacts hors web : changement dans la façon de sociabiliser (cf. les réseaux sociaux, Facebook en tête), comportement en entreprise (social marketing, entreprise 2.0), relation démocratique (cf. l’exemple précédent sur la politique et les élections), etc… A mon sens, cela n’est qu’un début, mais déjà certaines industries sont fortement impactées par ces changements comportementaux (notamment les industries de la musique et du cinéma qui ne savent toujours pas vraiment comment contrer l’explosion du peer-to-peer, une des formes les plus poussés du partage 2.0).

Au final, le suffixe « 2.0 » permet de désigner de façon simple des changements complexes et est à mon sens, le symbole de l’émergence d’un nouveau paradigme qui déborde du simple cadre du web.

Les 2 autres billets de la série :

Après avoir tenté mieux comprendre l’origine du terme web 2.0 à travers une relecture historique, je vous propose un second billet qui s’intéresse à l’émergence des services 2.0 et aux innovations techniques et conceptuelles qui leur sont liés.

Bien souvent on décrit la base du web 2.0 comme un changement de technologies (ajax, RSS, web services, etc…). Or si on regarde le tableau dressé par O’Reilly (cf. billet précédent) pour illustrer le passage du web 1.0 au web 2.0, on constate que les innovations technologiques (web services, syndication) sont finalement moins nombreuses que les innovations de concept (le wiki, le blog, la folksonomy, la participation etc…). Bref, à mon sens les technologies dites du web 2.0 n’ont pas précédés les concepts et comportements, au contraire, tout cela a émergé de façon simultanée. On pourrait alors parler de briques qui se sont assemblées pour donner naissance à une construction complexe qui est le web 2.0. On peut alors distinguer trois types de briques : les briques techniques, les briques ergonomiques et les briques conceptuelles.

Les briques techniques

Les briques techniques sont constituées d’un ensemble de technologies nouvelles ou utilisées différemment (format de donnée, langage de développement, architecture des applications, etc…).

  • Ajax : ce n’est pas à proprement parler une technologie mais l’utilisation conjointe d’un ensemble de technologies qui permet entre autre une plus grandes réactivé des interfaces web et rapproche ainsi les applications web des applications de bureau (client lourd)
  • Syndication & RSS/Atom : la syndication est la possibilité d’accéder au contenu d’un site depuis un autre site, ceci est rendu possible par l’utilisation d’un format de donnée spécifique comme le RSS ou l’Atom
  • Web Services  & Architecture REST : un web service permet de communiquer et d’échanger des données entre des applications et des systèmes hétérogènes, l’architecture REST est une architecture adaptée aux services web. Cet ensemble ouvert et modulaire permet plus de réactivité et de souplesse.
  • Frameworks web : un framework  est un cadre de référence (outils, bibliothèque de code, conventions de codage) qui permet de développer rapidement et efficacement une application web.
  • xHTML & CSS : Le xhtml est un système de balisage qui succède au classique html et qui couplé au langage CSS permet une séparation du fond (le contenu) de la forme (style et organisation de la page).

Les briques ergonomiques

L’aspect ergonomique regroupe tout ce qui concerne les changements de l’interface utilisateurs des sites et applications web. Le plus marquant est le développement d’interface riche notamment grâce à la technologie Ajax qui permet beaucoup plus d’interaction de l’utilisateur sur les pages web. On peut citer notamment l’apparition d’onglets, de sélecteur de date, de « cover flow », d’éléments déplaçables, etc…

Le second élément est la simplification des interfaces qui passe notamment par la mise en place d’un design plus épuré : menus de navigation simple, couleurs fortes, surfaces riches (dégradés, ombres, réflexions, stries…), texte de taille importante, logo  très visible, entête de site mis en valeur, bouton de « call to action » mis en évidence etc…

Le site Box.net, un exemple de design 2.0

Le site Box.net, un exemple de design 2.0

Les briques conceptuelles

Il s’agit de tous les nouveaux concepts qui se développent et qui viennent remplacer ou s’additionner aux usages plus anciens.

  • Folksonomie : catégorisation par étiquetage (tags) qui est une alternative au classement par répertoire notamment utilisé par les annuaires web
  • Blog : le blog offre une alternative au site personnel en proposant de publier des billets de façon simple
  • Publication et partage : possibilité de stocker en ligne des contenus (textes, images, vidéos) afin de les partager avec d’autres
  • Contribution : possibilité de créer et/ou de réagir à un contenu (recommandation, critiques, votes, commentaires, etc…)
  • Widget : mini-application autonome qui permet de déporter l’information d’un site ou d’une application web sur un autre support (bureau, blog, page web…)

Les différentes briques que l’on vient de décrire ne constituent pas à elles seules le web 2.0. Le web 2.0 n’existe que parce que des acteurs du web se sont saisies de ces briques (et d’ailleurs ont parfois même contribué à leur développement et à leur diffusion) et s’en sont servi pour créer des services web innovants. Des services qui ont alors été qualifiés de service web 2.0. Si on suit correctement le raisonnement ce sont donc les entrepreneurs, les ingénieurs, les marketeur, etc… qui en s’emparant des briques constitutives du web 2.0 pour créer des services innovants ont permis l’existence du web 2.0. En ce sens il existe une certaine performativité de la notion de web 2.0 : l’expression web 2.0 ne décrit pas seulement une réalité, elle a crée cette réalité.

Littéralement en quelques années il y a eu une explosion des services de la génération web 2.0, on peut citer pêle-mêle :  YouTube, Flickr, Delicous, Wikipedia, Blogger, MySpace, Facebook,  LinkedIn, SlideShare, Technorati,  Digg, Twitter, Friendfeed, , Last.fm, Netvibes, , Zoho, Basecamp, etc… Sur le net, il circule de nombreuses images témoignant de ce foisonnement d’acteurs 2.0, personnellement j’aime bien celle-ci :

Une cartographie des principaux services Web 2.0

Une cartographie des principaux services Web 2.0

Au final, on constate qu’il y a eu un glissement sémantique du terme web 2.0. Alors qu’initialement il désignait la période de renouveau du web, il en est venu à désigner les acteurs ou services qui par leur innovation ont été à l’origine ou ont profité de ce renouveau. Cette innovation doit être vue comme la combinaison de plusieurs briques (technique, ergonomique, conceptuelle) qui sont intrinsèquement lié au terme Web 2.0

Les 2 autres billets de la série :

Je vous propose cette semaine trois billets autour du concept de web 2.0. L’idée est ici de faire un point 5 ans après l’émergence du concept. Et pour commencer je vous propose aujourd’hui de tenter une relecture historique pour mieux comprendre l’origine du terme web 2.0.

1995-2000 : Internet où l’euphorie de la nouvelle économie

Internet ne s’est réellement ouvert au grand public qu’à partir du milieu des années 1990. L’année 1994 est d’ailleurs riche en évènement pour Internet :

  • Fondation de Netscape (avril 1994) qui et développe un navigateur web qui va très rapidement supplanter Mosaic jusqu’au lancement par Microsoft en 1995 d’Internet Explorer
  • Création de Yahoo : l’annuaire web est en janvier 1994 par deux étudiants de l’université de Stanford, David Filo et Jerry Yang et permet aux utilisateurs de trouver rapidement un site grâce à un classement par catégories
  • WebCrawler (avril 1994) : premier moteur de recherche web capable d’indexer le texte intégral des pages parcourues
  • Fondation du World Wide Web Consortium (W3C)

Ainsi dès le milieu des années 1990, on commence à parler d’une nouvelle révolution industrielle basée sur l’essor formidable des fameuses Nouvelles Technologies de l’Information et de la Communication (NTIC) dont Internet est l’emblème. La « nouvelle économie » est en marche et les indicateurs économiques favorables accréditent ce renouveau (c’est particulièrement le cas aux Etats-Unis où le chômage et l’inflation diminue fortement et où les NTIC contribue à plus de 15% de la croissance économique).

C’est ainsi que se met en place ce que l’on peut appeler rétrospectivement le web 1.0 mais également le « web réplicatif » dans la mesure où l’on voit se reproduire sur le web des modèles qui existaient « offline ». C’est par exemple le cas du modèle de Portail Web qui est un des emblème de la « période 1.0 ». En effet le modèle du Portail Web n’est qu’une transposition en ligne d’un modèle utilisé par la presse traditionnelle : un portail comme un magazine papier propose de l’information et cherche à obtenir une audience élevé/un lectorat important et de la rentabiliser par la vente de publicité. D’ailleurs la publicité sur le web à cette période là se fait majoritairement sous forme de bandeaux avec des formats variés exprimés en pixels (par exemple, 468×60, 250×250, etc…) c’est-à-dire l’unité de mesure des dimensions d’une page web, à l’image des encarts dans une publication papier mesurés en fonction de leur taille par rapport à la page (quart-page, demi-page, etc…). Mais la presse n’est pas la seule à voir son modèle transposé en ligne, de nombreuses activités se dématérialisent en ligne avec plus ou moins de succès : la librairie avec Amazon, le vide-grenier avec Ebay, la vente de prêt-à-porter (boo.com) ou de jouets (etoys.com)…. Le système du web 1.0 est bien un système qui réplique le modèle des médias et des services traditionnels sur le web. Chez les mastodontes du web de cet époque, l’internaute est « passif », il reçoit l’information (récepteur) ou consomme le service (consommateur) mais il n’est pas (ou peu) en position de créateur de l’information ou d’acteur du service. Néanmoins, à la marge (car surtout réservé à des avertis), se développe déjà un web où les internautes ont pris la main, c’est le cas par exemple des newsgroups, forum et autres pages perso.

Pendant toute la seconde moitié des années 1990 de nombreuses startups vont être crées et les gains promis par ces toutes jeunes sociétés attirent un nombre croissant d’investisseurs et les introductions en bourse se succèdent avec de valorisation souvent éloignées de la réalité économique (faible chiffre d’affaires et bien souvent pertes très importantes). Aux Etats-Unis, le NASDAQ, l’indice des valeurs technologiques explose (il passe de 2192 points fin 1998 à 5 048,62 points le 10 mars 2000 !).

Evolution de l'indice NASDAQ de 1994 à 2004

Evolution de l'indice NASDAQ de 1994 à 2004

Il règne alors dans l’écosystème Internet une atmosphère joyeuse. C’est à cette époque que ce crée le mythe de la startup à l’ambiance décontractée, avec une approche totalement décomplexée du business où l’argent arrive facilement (concept des fameux First Tuesday) et les promesses de gains en font miroiter plus d’un (notamment sous forme de stock-options). C’est aussi pour beaucoup de jeunes entrepreneurs une façon d’inverser l’histoire, car pour la première fois c’est la jeune génération (en France, on peut penser à Pierre Chappaz de Kelkoo, Orianne Garcia de Caramail, Jérémie Berrebi de Net2One, Loic Le Meur de Six Appart, etc…) qui a les clefs, qui réussit et qui donne à voir à l’ancienne génération de la « veille économie ». Une génération qui pense pouvoir réinventer les règles de l’entreprise. Pourtant en mars 2000 la bulle éclate et conduit à un violent réajustement… Le documentaire de Benjamin Rassat Quand Internet fait des bulles est d’ailleurs très instructif à ce sujet.

2000-2003 : des lendemains qui déchantent

La conséquence immédiate de l’éclatement de la bulle en mars 2000 a été la faillite de nombreuses startups Internet (environ une sur deux) et la défiance des investisseurs pour l’univers web. Les web entrepreneurs se font plus rares ou plus discrets même dans la Sillicon Valley. L’indicateur le plus intéressant de ce retournement de situation est le volume d’investissement dans les start-ups web qui s’effondre après l’éclatement de la bulle passant de 14 milliards de dollar au plus haut de la bulle (premier trimestre 2000) a à peine 500 millions au troisième trimestre 2003.

Pourtant malgré la morosité qui règne chez les acteurs de l’industrie, le grand public se prend de plus en plus au jeu de l’Internet. L’exemple français est d’ailleurs édifiant à ce propos. Ainsi au moment de l’explosion de la bulle à peine 10% de la population française est connectée à Internet. On comprend alors bien mieux pourquoi les startups Internet ont du mal à rencontrer leur audience ou leurs acheteurs, le marché n’avait tout simplement pas atteint une taille critique permettant la rentabilité. Or c’est après l’explosion de la bulle que les technologies d’accès à Internet vont s’améliorer avec le développement du haut débit et des offres commerciales correspondantes. Dès fin 2002, l’Internet décolle en termes d’usage dans l’hexagone avec un nombre de foyers raccordés multiplié par 6 entre 2001 et 2003 ! Le constat est le même partout en Europe et aux Etats-Unis, l’heure de l’Internet grand public a enfin sonné !

Evolution du nombre d'Internautes entre 2001 et 2005 (Europe & Etats-Unis)

Evolution du nombre d'Internautes entre 2001 et 2005 (Europe & Etats-Unis)

2004 : Le Web 2.0 où la renaissance d’Internet

En 2004, le web semble se réveiller. Le réveil vient tout d’abord de l’augmentation du nombre d’utilisateurs. Les graphiques ci-dessus montrent qu’il existe effectivement un changement d’échelle par rapport à la période 1995-2000. La croissance rapide du nombre d’utilisateurs fait passer Internet d’un réseau d’initiés à un réseau grand public. L’adoption est massive, les internautes sont là.

Chez les acteurs du web, le réveil se fait également dès 2004, avec l’avènement du « roi » Google sacré maître de la recherche sur le web (à cette date, 84,9% des requêtes sur le web sont faites auprès du moteur de recherche). Fort de cette domination, la startup entre en bourse en mai 2004 et ses actions s’arrachent auprès des investisseurs (initialement côté 80$, l’action s’échange à 250$ un an plus tard). Le succès de cette startup qui a su résister au krack des années 2000, relance l’innovation en matière d’Internet et stimule toute l’écosystème web. Le sentiment émerge que quelque chose de nouveau se passe sur le web. En septembre 2004, Tim O’Reilly, directeur d’une maison d’édition spécialisée dans l’informatique, va être le premier à évoquer le terme de « web 2.0 » en l’utilisant pour le nom d’une conférence (la « Web 2.0 Conference » qui s’est tenu à San Francisco en Octobre 2004). Ce terme de 2.0 a été choisi initialement pour dire qu’il fallait de nouveau compter sur le web, que de nouvelles choses allaient venir. Lors de cette conférence O’Reilly et ses collaborateurs ont d’ailleurs dressé une liste des éléments appartenant à l’ancienne vague (le web 1.0) et à la nouvelle vague (web 2.0) :

Différence entre le web 1.0 et le web 2.0 selon Tim O'Reilly

Différence entre le web 1.0 et le web 2.0 selon Tim O'Reilly

Pour O’reilly, le terme web 2.0 cherchait également à montrer que le web était devenu une plateforme et qu’il s’était en quelque sorte affranchi du navigateur. Voici d’ailleurs ce qu’on pouvait lire sur le site de la Web 2.0 Conference : “While the first wave of the Web was closely tied to the browser, the second wave extends applications across the web and enables a new generation of services and business opportunities.”

Au final, cette relecture historique montre que le terme Web 2.0 à l’origine désignait le renouveau du web après la période difficile du début des années 2000.

Les 2 autres billets de la série :

Quand il s’agit de marketing sur Internet, certains parlent d’e-marketing, d’autres de web marketing, d’online marketing, d’Internet marketing, ou encore de digital marketing. Bref, tout un tas de terminologies qui ne désignent pas nécessairement la même réalité. Petite mise au point sur le sujet.

Les nuances géographiques

La première différence entre ces termes est d’ordre géographique. Comme bien souvent sur Internet, les usages naissent d’abord outre-Atlantique avant d’arriver chez nous. Il est donc assez logique de rencontrer de nombreux termes anglo-saxons directement employé en français. Par exemple, le terme « digital marketing » qui devrait être traduit par « marketing numérique » (comme c’est le cas dans « digital camera » qui se traduit par « appareil photo numérique ») est en fait employé comme tel en français sous la forme de « marketing digital ». D’ailleurs pour les anglo-saxons, il y peu de différence entre les termes « Internet Marketing », « Online Marketing » et « Web Marketing », tous les trois définissent simplement le marketing de biens ou de services réalisé sur Internet. Cependant, l’usage aux Etats-Unis semble privilégier le terme « Internet Marketing » comme le montre une étude de tendance sur Google Insight for Search.

Résultat de Google Insight aux Etats-Unis

Résultat de Google Insight aux Etats-Unis

On peut généraliser cette étude du volume de recherche web sur plusieurs pays pour faire apparaître quelques tendances intéressantes :

  • Le terme « Internet Marketing » est privilégié dans l’ensemble des pays anglo-saxons (USA, Canada, Australie, Nouvelle-Zélande, Afrique du Sud, Royaume-Uni) ainsi qu’en Chine, au Japon ainsi que très largement dans les pays nordiques (Norvège, Finlande, Suède). L’usage du terme « Online Marketing » arrive en seconde position et est plus commun dans les pays d’Europe de l’Ouest (Royaume-Unis, Danemark, Pays-Bas).
  • Les pays européens à influence germanique (Allemagne, Autriche, Suisse) utilisent majoritairement le terme « Online Marketing » avant le terme « Internet Marketing ».
  • Enfin, les pays à influence latine (Espagne, Italie, France, Portugal) utilisent peu les termes précédents et préfèrent l’utilisation des termes « web marketing » ou « e-marketing » (ce dernier semblant avoir la préférence des francophones, puisqu’il est également fortement utilisé en Belgique et relativement plus en Suisse par rapport à l’Autriche ou l’Allemagne)
Comparaison de l'usage des termes entre différents pays

Comparaison de l'usage des termes entre différents pays

Il est difficile d’expliquer ces tendances, mais on peut néanmoins imaginer une corrélation positive entre l’utilisation de l’anglais au quotidien (langue maternelle ou ouverture à la langue anglaise importante comme dans les pays nordiques) et l’adoption des termes anglo-saxons d’Internet Marketing ou d’Online Marketing. Les pays latins, traditionnellement moins  ouverts à la langue anglaise semblent avoir préféré des alternatives aux vocables anglo-saxons.

Les nuances techniques

Au-delà des aspects linguistiques et culturels, il devrait exister une nuance d’origine technique entre les termes « web marketing » et « Internet marketing ». Comme expliqué dans un précédent billet il y a une forte différence entre le Web et Internet. Il serait donc logique de faire cette différence lorsque l’on parle de web marketing et d’Internet marketing :

  • Internet Marketing : marketing de biens ou de services réalisé sur Internet (par exemple via le web, l’e-mail ou encore via messagerie instantanée)
  • Web Marketing : marketing de bien ou de services réalisé uniquement sur le web

Hiérarchie des termes

Cette différenciation permettrait d’établir une hiérarchie à deux niveaux, auquel on pourrait alors ajouter un troisième niveau avec le terme « digital marketing ». Ce terme, plus récent, est en fait utilisé par les professionnels (notamment les grandes agences de communication) pour désigner le marketing réalisé à travers tous les supports numériques (ordinateur, téléphone mobile, baladeur MP3, jeux vidéo, livre électronique, télévision interactive, etc…).

Ainsi, il est possible de bâtir un schéma en « poupée russe » où les termes s’englobent les uns dans les autres : le web marketing (au même titre que l’email marketing par exemple) n’est qu’un élément de l’Internet/Online marketing qui n’est lui-même qu’un élément du digital marketing (au même titre que le mobile marketing par exemple).

Les poupées russes : du marketing digital au web marketing

Les Poupées Russes : du marketing digital au web marketing

Et le e-marketing dans tout cela ?

Le terme « e-marketing » est en fait la contraction d’électronique marketing et désigne donc le marketing de biens et services utilisant des technologies de communication électronique qu’il s’agisse d’Internet, d’email ou encore de téléphone portable. Bref, le e-marketing semble assez proche de la notion de digital marketing. La nuance entre les deux termes est mince ; il faut la chercher dans la différence entre les termes « électronique » et « numérique » (en fait ces termes sont souvent employés indifféremment, même si le terme électronique se rapporte davantage à un support et numérique à un contenu).

Cependant il semble que l’usage en France du terme « e-marketing » par les professionnels de l’Internet est souvent assez semblable à celui d’Internet Marketing par leurs homologues anglo-saxons. Bref, le terme d’e-marketing reste assez ambigu en désignant le marketing sur Internet sans pour autant lui être réellement limité !

Quotidiennement on parle d’Internet, du Web, de la toile, du net… sans vraiment distinguer un terme de l’autre. Et pourtant il existe une différence sémantique entre tous ces termes, différence qui se comprend avant tout au point de vu technique. En effet, Internet se définit comme un réseau informatique mondial qui permet aux utilisateurs de différents ordinateurs de communiquer et de partager des informations. Même si cette définition d’Internet en tant qu’infrastructure informatique mondial est la plus couramment admise, elle n’en reste pas moins limitée, puisqu’elle ne prend en compte qu’une part de la réalité. Dès 1995 dans sa résolution du 30 octobre, le Federal Networking Council (FNC), définit Internet comme un système global d’information. Cette notion de système est bien plus précise et permet de mettre en lumière les trois facettes qui définissent Internet :

  • L’infrastructure : c’est la notion première abordée à travers le concept de réseau informatique mondial.
  • La communication : la communication s’établie entre deux entités de l’infrastructure en respectant un certains nombres de contraintes (existence de protocole de communication) ; ces protocoles définissent la façon dont l’information sera traitée.
  • Les usages : ce sont les possibilités ouvertes aux utilisateurs par l’existence d’une communication ; ces usages ou applications sont multiples.

La définition d’Internet en tant que système global d’information permet alors de comprendre que le Web, où pour être complet le World Wide Web (le fameux www), n’est en fin de compte qu’une des applications/usages d’Internet au même titre que peuvent l’être le courrier électronique (email), la messagerie instantanée (IM, Instant Messaging), le transfert de fichier de ou vers un serveur (transfert FTP) ou encore les systèmes de partage de fichiers poste à poste (le fameux pear-to-pear), etc…

Plus précisément le web est le service qui permet de consulter des informations à partir d’Internet sous la forme de pages mises en ligne sur des sites et consultables à l’aide d’un navigateur web. Aujourd’hui on estime que le nombre de pages Internet dépasse le billion (1012 pages) ! Bien entendu comme toutes les estimations, l’approximation est de rigueur. D’ailleurs il est a noté qu’une très grande partie du web, appelé web invisible ou web profond n’est même pas indexé par les moteurs de recherche. A titre d’exemple Google n’indexerait « que » 40 milliards de pages.

Une page web peut être assimilée à un fichier informatique multimédia au sens où ce fichier est capable de mettre en œuvre simultanément des médias différents : texte, image, vidéo, son… Ceci est rendu possible grâce à un format de données spécifique appelé Hypertext Markup Language, le fameux langage HTML. Ce langage permet de bâtir les pages web grâce à un système de balisage (markup) et en particulier de relier une page à une autre page web grâce à des liens dits « hypertextes » ou hyperliens. Ce système de liaison entre les pages est à la base du web qui en tire d’ailleurs son nom dans la mesure où la représentation  graphique des liaisons entre les pages peut faire penser à une toile d’araignée (web en anglais).

Ce que l’on sait moins, c’est  que le web a été inventé plusieurs années après Internet. En effet Arpanet, l’ancêtre d’Internet d’origine militaire a été mis en place dès 1969. Ainsi, la date de naissance conventionnelle d’Internet est fixée au 7 avril 1969, c’est-à-dire la date de publication de la première RFC (les FRC ou Requests For Comment sont une série numérotée de documents électroniques décrivant les aspects techniques d’Internet. La première RFC publiée par Steve Crocke est titrée « Logiciel hôte » et concerne ARPANET). Il faudra encore attendre 20 ans pour que le web naisse officiellement  (publication par Tim Berners-Lee en mars 1989 de son célèbre « Information Management: A Proposal »)

En fait, aujourd’hui le web concentre la majorité des usages d’Internet, ce qui a amené la confusion des termes. C’est pourquoi il n’est pas rare d’utiliser les termes Internet et Web/Toile pour parler de l’un ou de l’autre ou d’utiliser l’un de ces termes sans clairement faire référence à l’un ou à l’autre !

Après avoir abordé dans un précédent billet la mesure d’audience « user-centric » par panel, je vous propose de s’intéresser à la mesure par questionnaires.

La méthodologie

Quand on parle de mesure d’audience « user-centric » sur Internet on pense en premier à la mesure par panel. Or, il existe un autre type de mesure : la mesure par questionnaire ou sondage. L’objectif ici n’est pas de quantifier ou de qualifier l’audience d’un site mais de s’intéresser surtout aux usages des Internautes. Prenons un exemple simple, la mesure par panel permettra de dire le nombre d’internautes ayant visité le site Libération.fr au cours du mois et de connaitre les caractéristiques de ces internautes (sexe, âge, catégorie socioprofessionnelle, etc…). La mesure par enquête permettra elle de dire que la consultation de sites d’information en ligne par les français est de plus en plus fréquente, la mesure par enquête pourra également dresser un profil des internautes visitant les sites d’information. Bref, si d’un côté la mesure par panel produit une véritable mesure d’audience, la mesure par questionnaire permet d’agréger des données comportementales (variables sociodémographiques, habitudes et types d’activités sur internet, comportements de consommation etc.…) et permettent d’élaborer des typologies.

Ces enquêtes sont souvent réalisées en ligne (parfois par téléphone) et souvent sont répétées à intervalle régulier (comme un baromètre d’opinion) afin d’évaluer les évolutions des comportements.

A ces grandes études multi-clients s’ajoutent également des enquêtes ad-hoc réalisées à la carte. Par exemple, l’utilisation d’Internet par les enfants ou l’utilisation des services de banque en ligne. On se rapproche alors plus d’étude marketing classique et d’ailleurs les résultats s’accompagnent souvent de conseil marketing.

Les acteurs

Les acteurs de ce type de mesure sont des bureaux d’études en particulier Ipsos ou Harris Interactive (ex Novartris), qui disposent ainsi de bases de données conséquentes sur plusieurs milliers d’internautes qu’ils qualifient de «panel» dans la mesure où ces derniers peuvent être régulièrement sollicités.

NetObserver de Harris Interactive

Harris Interactive publié tous les 6 mois (printemps et automne) son observatoire des profils et des usages des Internautes européens appelé NetObserver. La 18ème vague a été publiée en mars 2009 (l’enquête existe depuis 1998 en France). Cet observatoire regroupe plus de 1 000 sites participants et plus de 400 000 répondants par an. L’observatoire suit l’évolution des profils et des usages des internautes de plus de 15 ans, quel que soit leur lieu de connexion (domicile, travail mais aussi écoles, universités, lieux publics) sur 5 marchés : France, Italie, Espagne, Allemagne et Royaume-Uni.

Ipsos-Profiling

Ipsos organise tous les 6 mois (juin et décembre) une enquête pour étudier les usages des français sur Internet. L’étude à lieu en ligne avec un recrutement à partir de 90 sites partenaires. Chacune des vagues associe deux terrains d’enquête et une enquête nationale représentative pour obtenir les données de cadrage qui serviront au redressement de l’enquête en ligne. Les résultats de vague de décembre 2008 ont été publiés en février dernier.

Les limites

Le principal avantage des enquêtes en ligne c’est que leur coût reste faible et son rapidement mise en place. Cependant ce type de mesure reste limité car il existe un biais des répondants. En effet, puisque l’enquête est auto-administré et basée sur le volontariat (l’internaute choisit de lui-même de répondre à l’enquête et le fait seul devant son ordinateur), il y a une sur-représentation des usagers les plus assidus et enthousiastes. Bref, les internautes qui acceptent de remplir les questionnaires en ligne ne sont pas représentatif de l’ensemble de la population d’internautes. De même, les incitations à participer aux enquêtes (lots, points, tirage au sort, etc…) peuvent amener une population de répondant (joueurs internet) qui une fois de plus n’est pas représentative de la population Internet.


Retrouvez les autres billets de la série sur la mesure d’audience sur Internet :

Après avoir abordé la mesure « user-centric » par panel dans le billet précédent, je vous propose de détailler maintenant les mesures « site-centric »

La méthodologie

Les mesures « site-centric » permettent de quantifier le trafic d’un site en mesurant l’ensemble des connexions sur le site. La mesure s’effectue grâce aux logs des serveurs ou via un marqueur placé dans le code source des pages. Ce type de mesure permet de quantifier le nombre de pages vues, le nombre de visiteurs mais également de connaitre le comportement des visiteurs sur le site (page d’entrée, page de sortie, chemin de navigation, etc.), l’équipement informatique de l’internaute (navigateur, système d’exploitation, résolution de l’écran, etc…) ou encore des données géographique du lieu de connexion (pays, région…). Les outils disponibles aujourd’hui permettent des mesures et des analyses de plus en plus fines.

Les acteurs

A la différence des mesures par panel, il existe de très nombreux acteurs qui proposent de la mesure « site centric » avec des niveaux de service très différents. Cela va des services gratuits pour compter la fréquentation de sites personnels (par exemple Xiti Free proposé par AT Internet ou l’outil de statistique de Weborama) à des solutions professionnels très avancés en termes de statistiques et qui peuvent également inclure de l’adserving, du tracking, des web analytics, etc… Parmi ces solutions professionnelles  on peut citer les sept sociétés dont un ou plusieurs outils ont été labellisées par l’OJD (Association pour le Contrôle de la Diffusion des Médias) :

  • AT Internet (anciennement Xiti) : pure player français de l’audience Internet crée dès 1996
  • Médiamétrie via ses outil eStat et CyberStat
  • Omniture, éditeur américain de la solution Sitecatalyst
  • Nedstat, société hollandaise, présente dans plusieurs pays européen avec son outil Sitestat
  • NSP, société française fondé en 1999 avec la solution SmartProfile
  • Weborama, une autre société française spécialisée dans l’audience Internet (Wreport & Wreport)
  • IDfr, société française crée en 1999 qui édite Wysistat

Les limites

A la différence des mesures « user-centric », le « site centric » permet de mesurer toutes les connexions qu’il s’agisse peut importe la localisation géographique du visiteur ou le lieu de surf (travail, domicile, lieu public). En revanche les mesures « site-centric » ne permettent pas de qualifier l’audience mesurer. Par exemple, on ne peut pas définir les caractéristiques du visiteur comme le sexe, l’âge ou encore la catégorie socioprofessionnelle.

Autre point important concernant la mesure des visiteurs uniques. Cette mesure nécessite la création d’un cookie qui identifie un poste/navigateur et non pas un individu. Or un ordinateur peut être utilisé par plusieurs personnes (au sein d’un même foyer par exemple) ; l’internaute peut également refuser ou détruire les cookies (ce qui est de plus en plus fréquent avec la généralisation des anti-spyware ou des logiciels de contrôle parental). Au final cela aboutit à des erreurs dans la comptabilisation du nombre de visiteurs uniques.

Retrouvez les autres billets de la série sur la mesure d’audience sur Internet :

Après avoir dressé un panorama de la mesure d’audience sur Internet, je vous propose de s’intéresser plus particulièrement à la mesure « user centric » à base de panels.

La méthodologie

La mesure d’audience sur Internet par panel se rapproche de ce qui existe pour la télévision avec le Médiamat. En effet, cette mesure repose sur l’analyse de navigation d’un panel d’Internautes qui ont acceptés d’installer sur leur ordinateur un logiciel qui transmet en temps réel leurs données de surf. Dans les foyers constitués de plusieurs personnes, chacune d’entre elle doit s’identifier avant chaque session de surf, permettant ainsi de différencier les informations. Comme toute mesure par panel, les foyers sélectionnés constituent un échantillon représentatif de la population internet globale (âge, sexe, catégorie socioprofessionnelle, etc…). L’évolution rapide de la population Internaute oblige un fort renouvellement des panels afin d’être le plus représentatif possible (environ 20% des panélistes chaque année). Cependant, avec un taux de pénétration d’Internet de plus en plus élevé, la population Internaute se rapproche peu à peu de la population française, ce qui rend le calage plus aisé et donc permet aux panels d’être toujours plus représentatifs.

La mesure par panel permet donc de suivre la consommation et les usages et de mesurer leur évolution. Cette mesure « user centric » permet ainsi de définir les profils des audiences de chaque site étudié.

Cette mesure est capitale en particulier pour les sites éditoriaux ou ayant un modèle de revenues basé sur la publicité car c’est sur la base de ces mesures que sont menées les actions de médiaplanning et les négociations d’achat/vente d’espace publicitaire.

Les acteurs

Il ne subsiste aujourd’hui en France que deux panels : Médiamétrie/NetRatings et ComScore. Cette concentration peut s’expliquer par le coût élevé de la mesure par panel (notamment les coûts de recrutement et de gestion des panélistes) mais aussi par la recherche d’une taille critique à l’internationale (mise en place de panels sur les principaux marchés internationaux et mise en place de comparaisons entre zones géographiques).

Le panel Médiamétrie-NetRatings

Ce panel est issu du rapprochement du français Médiamétrie avec le spécialiste américain de la mesure d’audience, Nielsen, à travers la société Nielsen-NetRatings.

Le panel France de Médiamétrie-NetRatings s’appuie sur un échantillon de 25 000 individus depuis janvier 2009 (précédemment 10 000), recruté par téléphone et sur Internet. Cet échantillon est représentatif de la population des internautes âgés de 2 ans et plus, résidant en France et disposant d’un accès Internet à domicile et / ou sur le lieu de travail. Ce panel permet également d’estimer l’audience pour les autres lieux de connexion (bibliothèque, cybercafés, …), en complément du domicile et du lieu de travail.

Le panel ComScore

Le panel ComScore est développé par le  géant américain, bien implanté en Europe depuis le rachat de Jupiter Médiametrix en 2002.

Le panel France de ComScore s’appuie sur un échantillon de 20 000 individus, recruté exclusivement en ligne. Cet échantillon est représentatif de la population des internautes âgés de 15 ans et plus, résidant en France et disposant d’un accès Internet à domicile et / ou sur le lieu de travail. Le panel ne prend pas en compte la navigation depuis les ordianteurs publics (bibliothèque, cybercafés, …)

Comparatif des Panels Médiamétrie//NetRatings et Comscore

Comparatif des Panels Médiamétrie//NetRatings et Comscore

Les limites

La mesure par panel connait plusieurs limites. Tout d’abord elle ne prend en compte, par définition, que la navigation du panel, autrement dit, est exclu toute la population d’un pays qui surfe depuis l’étranger (ou qui surfe depuis un lieu public pour le panel ComScore)

De même, ne sont pris en compte que les sites visités par les panélistes, or au vu de la fragmentation du web, seuls les « gros sites » sont pris en compte (moins de 10.000 sites pour le panel Médiamétrie). Or l’audience des petits sites est loin d’être négligeable (la théorie de la « long tail » parfaitement bien ici). C’est donc tout un pan du web qui n’est pas mesuré par les pannels.

Bref, la principale limitation des panels est leur taille. Cette mesure ne peut être représentative que si un site recueille un nombre minimal de visites. Or l’augmentation de la taille des panels est difficile notamment pour des raisons de coût. C’est pourquoi les instituts cherchent de plus en plus à coupler leur mesure « user centric » avec des mesures « site centric ».

Polémiques

Les décalages de mesure entre les différents panels ou entre les mesures « user centric » et « site centric » sont souvent la cause de longues polémiques. Premier exemple aux Etats-Unis en 2006 avec la remise en cause des mesures des panels par les professionnels du web (voir « Web execs question metrics »). Mais plus récemment en France, il y a eu un affrontement entre les sites des grands titres papiers nationaux (en particulier Le Monde et Le Figaro) suite à des publications contradictoires de Médiamétrie et Comscore. L’affaire est très bien résumée par un article de Stratégies.

Evolutions

Pour terminer, je vous livrerai une réflexion de prospective sur l’évolution de la mesure « user centric ». Comme je l’ai expliqué précédemment, la principale limite de ce type de mesure est la taille du panel. Bref, trop peu de foyesr ont un « logiciel espion » installé sur leur ordinateur. Or pour accéder à Internet nous avons tous un (voir plusieurs) navigateurs sur notre PC. Pourquoi alors ne pas transformer ce navigateur en un outil de recueil des données de surf ? Il suffirait alors d’obtenir l’accord de l’internaute et de qualifier son profil. La mesure d’audience sur Internet, un nouveau business pour Mozilla, Microsoft, Apple, Google & Co ?

Retrouvez les autres billets de la série sur la mesure d’audience sur Internet :

Moket.fr Késako ?

Moket.fr est un blog qui traite de Marketing et d'Internet. Plus précisément vous trouverez ici des réflexions, des analyses et des informations sur les tendances web et leur impact sur le e-marketing.
Bonne lecture !

Renaud

Plus d'infos sur l'auteur et le blog.
Suivez-moi aussi sur Twitter.

over-blog.com