Nouvelle mise en page Google : le graphique des connaissances

Le moteur de recherche de Google évolue très régulièrement que ça soit au niveau de ses algorithmes de classement (les fameux mises à jour appelées Google Panda et Pinguin qui ont fait trembler beaucoup de webmasters ces deux dernières années) ou au niveau de la présentation des résultats affichés aux internautes.

Vous aurez peut être aussi remarqué que ces derniers temps la présentation des résultats sur certaines requêtes se transforme profondément avec ce qu’ils appellent chez Google le graphique des connaissances. Vous savez c’est ce qui apparait à droite des résultats quand vous saisissez par exemple un nom de film ou une personnalité, un exemple ci-dessous sur le dernier film de Tim Burton Dark Shadow :

recherche-google-graphique-connaissances

J’ai donc enquêté rapidement pour comprendre comment fonctionne cette nouvelle fonctionnalité et savoir d’ou proviennent les infos affichées. Il existe d’ailleurs un site dédié sur le Knowledge Graph à découvrir ici.

Si l’on reprend l’exemple Allociné, son fond de commerce s’articule, comme beaucoup d’autres sites, autour des requêtes des internautes qui recherchent des infos sur un acteur, un réalisateur ou un film… j’ai le sentiment que ces évolutions peuvent faire mal aux gros éditeurs : l’internaute est retenu sur la page de recherche Google, toute sa navigation peut se faire à partir de cette même page en limitant les clics sur les liens relatifs au site Allociné.

Du côté des sources d’information, on nous précise dans l’aide sur le graphique de connaissance d’ou viennent ces données :

– Des ressources en ligne, telles que Wikipédia
– Des ressources spécifiques, telles que Weather Underground pour les informations météorologiques et la Banque mondiale pour les statistiques économiques
– Les données accessibles à tous sur Freebase.com, une base de données gratuite et ouverte de plus de 24 milliards de contenus, y compris des films, des livres, des émissions télévisées, des célébrités, des lieux, des sociétés, et bien d’autres choses
– Des données de la recherche Google (utilisées pour mesurer la popularité d’un sujet et aider le système à identifier l’information la plus recherchée par les internautes)

Les meilleurs pratiques de SEO

SEOmoz, agence qui conseil les entreprises dans leur stratégie SEO édite un blog bien connu du monde du référencement. Ils ont publié récemment une analyse des différentes pratiques SEO, Pour chaque point ci-dessous, l’équipe SEOmoz fournit une analyse basée sur une étude de données corrélées ainsi que la meilleur pratique à adopter pour le référencement. Je vous propose un résumé traduit de l’article, c’est toujours bon à prendre pour son ranking dans les résultats des moteurs.

  • La balises Title

Inclure les mots-clés si possible en début de titre suivi de la marque, pour les activités ou la mise en avant de la marque favorisera le click de l’internaute, il convient de préciser en premier la marque suivi des mots-clés.

  • La balise H1

Les balises de titre H1 présentent une importance pour hiérarchiser l’information, elles sont surtout utiles pour l’utilisateur et prise en compte par les moteurs. Mais il y a d’autres points plus important à travailler en premier pour optimiser une page.

  • Le NoFollow

L’utilisation du Nofollow est conseillée sur les liens issus du contenu généré par les utilisateurs (commentaires d’un blog, profil utilisateur par exemple…) pour prévenir du spam. SEOmoz conseille aussi de mettre en place un système de niveau permettant de désactiver le nofollow au bout d’un certain temps sur un profil utilisateur qui aurait été actif, Une astuce qui peut favoriser l’activité des utilisateurs au sein d’une communauté.

  • La balise Canonical

Cette balise étant toute récente, il est difficile de juger de son importance et de sa valeur. Elle sera cependant à utiliser pour prévenir les problèmes de duplicate content.

  • Les attributs ALT

Il est recommander d’inclure un texte de qualité en l’intérieur des attributs ALT, tout d’abord pour rendre l’information accessible aux non-voyants mais également pour les moteurs de recherche qui favorisent les pages qui fournissent ce type de données.

  • Les balises Meta

Voila une bonne raison de ne pas mettre de keywords dans les balises Meta: ne pas permettre à ses concurrents de connaitre les mots-clés sur lesquelles on souhaite se positionner. Il est bon de savoir que ces mots-clés peuvent avoir une importance au regards de Yahoo! Il faudra donc juger le pour et le contre au cas par cas.

  • Les paramètres dans les urls

Il n’est pas recommandé de laisser plus de 2 paramètres dans les urls (ex: www.example.com/product?param=1&param=2). On a des outils à disposition permettant la réécriture d’url en url propres, profitons-en!

  • Les liens en bas de page

SEOmoz recommande de ne pas mettre en place plus de 25 liens de navigation internet en bas de page.

  • L’utilisation de Flash et Javascript dans les pages web

Il n’est pas recommandé d’utiliser les technologies Flash et Javascript pour les zones de navigation qui ont une importance pour les moteurs.

  • Les redirections 301

Les redirections 301 restent le meilleurs moyen de faire rediriger une adresse vers une autre. Notamment lorsqu’il y a une refonte d’un site, cette technique n’est cependant pas sans inconvenients.

  • Retirer des pages de l’index Google

L’utilisation du tag Meta Robots dans le code est préféré au robots.txt pour désindexer ou bloquer l’indexation d’une page.

  • L’impact des fonctions sociales de Google (Google Search Wiki) sur le ranking

Les fonctions sociales permettent de faire monter ou supprimer un résultat dans les Serp de Google. L’utilisation du Google Search Wiki a démontré aucun impact sur les résultats globaux. On va donc éviter de passer du temps sur quelque chose d’inutile…

  • Les liens négatifs

Google prend en compte le phénomène et l’impact des liens négatifs (si un site à caractère porno fait un lien vers ce blog…) . Il faut donc qu’il y est échange et que le lien soit réciproque pour que l’inpact soit négatif.

  • L’effet du trafic sur le ranking

L’importance du trafic n’aurait aucune incidence sur le classement dans les résultats des moteurs. Hallelujah, il y a encore de la place pour les petits.

Google Analytics: des tutos en vidéo

Vous vous êtes lancé sur le web mais n’utilisez pas encore les web analytics ?  Vous savez, ces outils de mesure qui permettent d’étudier l’audience d’un site

Google Analytics fait parti de ces outils d’analyse, il a le mérite d’être efficace et gratuit! Il fournit un tas de données pour aider le webmaster à optimiser ses campagnes de référencement ( référencement naturel ou liens sponsorisés) et mesurer l’évolution du trafic.

L’équipe de Google Adwords a mis en ligne une série de vidéos (Vu sur Webrankinfo), des petits tutoriels de 60 secondes qui vont à l’essentiel: Un concept des web analytics par vidéo.

Il y a aussi une série de vidéos sur Google Analytics et le programme Adwords et sur la mesure et le tracking pour les activités e-commerce.

Google Analytics en 60 secondes

Introduction au Search Marketing

Je travail en ce moment sur un mémoire de fin d’étude sur une thématique liée au Search Marketing, c’est la raison pour laquelle vous verrez passer dans les prochaines semaines quelques billets sur le référencement naturel ou payant. Commençons par une petite introduction au Search Engine Marketing…

La notion de référencement s’est développée sur internet avec l’apparition des premiers annuaires thématiques (Yahoo!) qui ont pour objectif de lister et classer les sites web selon une arborescence de catégories précises mais rapidement les moteurs de recherche se sont développés en proposant l’indexation automatique des pages web grâce à des « robots » qui scrutent le web. Ces moteurs permettent alors à l’internaute de retrouver une information  et la page web correspondante à partir d’une simple saisie de mots-clés.

La notion de Search Engine Marketing est souvent réduite à l’usage des liens sponsorisés mais nous l’abordons ici dans son sens globale qui est lié directement au marketing et à la promotion de sites internet. Cette pratique qui s’intéresse à l’accroissement de la visibilité des pages web dans les résultats des moteurs de recherche (SERPs, Search Engine Result Pages) se divise en deux composantes: Le Search Engine Optimization (ou référencement naturel) et le Search Engine Adverstising (ou liens sponsorisés).

En terme de stratégie marketing, la présence et le bon positionnement dans les résultats de ces moteurs de recherche est un atout considérable pour gagner en visibilité et acquérir de nouveaux clients pour les entreprises. Les responsables marketing l’ont bien compris et le budget attribué à la communication et plus généralement au marketing sur internet à augmenté ces dernières années.

Cet engouement pour les investissements liés au search marketing se comprennent dans le sens ou ils offrent généralement de meilleurs retour sur investissement, un meilleur ciblage des annonces et des outils qui offrent plus de facilités pour mesurer la performance des campagne. Essentiel pour mener une campagne de communication online efficace.

Le duplicate content et la balise canonical

Qu’est ce qu’est le duplicate content ?

Ce terme fait echo sur la toile depuis le développement des problématiques liées au référencement de sites web dans les moteurs de recherche. Le duplicate content correspond à un même contenu que l’on retrouve à plusieurs endroits sur le web et donc accessible depuis deux url différentes.

Il constitue la bête noir des moteurs de recherche (et du référenceur) qui ne souhaitent pas surcharger leurs bases de données en indexant inutilement deux fois le même contenu. C’est aussi faire éviter une perte de temps à l’utilisateur qui n’a pas besoin d’obtenir plusieurs pages avec les mêmes informations pour sa requête. Google pénalise donc le référencement de ces pages dupliquées et l’enjeu est de taille pour les responsables web qui peuvent perdre beaucoup de visiteurs et/ou de clients potentiels.

Le duplicate content et les problèmes d’url canonique

L’url canonique, Il s’agit de l’url principale à utiliser pour une page, l’adresse officielle ou favorite en quelque sorte. Ci-dessous les problèmes que l’on peut rencontrer en matière de duplicate content.

  • L’indexation d’un site avec et sans le sous domaine « www »

    http://mickaelgros.fr et http://www.mickaelgros.fr sont bien deux urls distincts et peuvent être indexées par Google comme étant du duplicate Content.

    L’astuce étant d’utiliser un fichier htaccess à la racine du site pour établir une redirection permanente (redirection 301). Dans ce cas, l’utilisateur qui tappe http://mickaelgros.fr sera redirigé vers http://www.mickaelgros.fr , Google prendra en compte la redirection et l’adresse destinataire sera considérée comme l’adresse officielle de la page. A titre d’exemple voici le code à mettre en place dans le cas d’une redirection 301:

    RewriteCond %{HTTP_HOST} !^www\.mickaelgros\.fr$
    RewriteRule (.*) http://www.mickaelgros.fr/$1 [R=301,L]

  • L’utilisation de plusieurs domaines

    Il est courant de réserver plusieurs domaines pour un même site, par exemple pour éviter le cybersquattingou pour localiser un site on utilise facilement monsite.fr,monsite.com…
    Comme pour le premier point, il est important de garder une url principale et chaque page doit disposer de sa propre url. On pourra utiliser une redirection 301 pour rediriger vers le domaine principale.

  • Utiliser deux urls pour sa page d’accueil

    Il est courant de voir une page d’accueil accessible depuis l’adresse http://www.mickaelgros.fr et http://www.mickaelgros.fr/index.php. Dans ce cas, il faut veiller à ce que les liens du site qui pointe vers la page d’accueil (logo, liens « retour à l’accueil » par exemple) utilisent bien la même url, c’est à dire http://www.mickaelgros.fr.

La balise canonical

C’était l’actu référencement des dernières semaines, les principaux moteurs de recherche dont Google, Yahoo!, Microsoft Live Search et Ask.com se sont mis d’accord pour gérer une nouvelle balise « canonical » permettant d’éviter certains problèmes de duplicate content et notamment les erreurs listées ci-dessus..

Cette balise permet de définir une url canonique, c’est à dire d’indiquer la page source de l’information aux moteurs et donc consolider l’importance donnée à une page sur une seule et même url et éviter la dilution du page rank.

La balise se présente comme ceci <link rel="canonical" href="http://www.example.com/product.php?item=swedish-fish" />

Pour en savoir plus sur l’url canonique et le duplicate content:

Penser référencement dès la rédaction

On sait que l’optimisation du référencement dans les moteurs de recherche demande un travail technique sur la structure d’un site en lui même (navigation et url des pages notamment), mais il dépend surtout du contenu publié.

Il est donc important de garder en tête quelques étapes à appliquer dès la rédaction du contenu.

Créer un maximum de contenu de qualité

Les algorithmes des moteurs de recherche fournissent un service à l’internaute lui permettant de trouver l’info dont il a besoin. La mission essentielle quand l’on écrit sur le web est donc de fournir un contenu intéressant, original (pour éviter de rentrer en concurrence avec des milliers d’autres pages). La fréquence de mise à jour du site est aussi un facteur de qualité important.

Définir les mots-clés à utiliser dans une page

Une page doit idéalement couvrir une thématique précise à laquelle on pourra associer plusieurs mots-clés. Ils devront évidemment apparaitre dans le contenu et idéalement en début de page, dans les premiers paragraphes. C’est à cet endroit que les moteurs de recherche leurs accordera une plus grande importance.

Soigner la mise en forme d’une page

La rédaction passe aussi par la mise en forme du texte et l’utilisation des balises xhtml adéquates pour mettre en évidence mot-clés, titres, et liens. On utilisera par exemple utiliser les balises <h1> et <h2> pour les titres et sous-titres et mettre l’information ou les mots importants en gras.

Soigner le libellé des liens

Les liens d’une page doivent avoir des libellés de qualité vers du contenu de qualité, le texte lié doit être explicite pour l’internaute. Les liens morts (lien qui mène l’internaute vers une page inexistante) sont aussi à proscrire…

Alors c’est sûr que l’on ne rédige pas uniquement pour être visible par Google mais ces quelques conseils sont toujours bon à prendre. Le moteur de recherche c’est un peu la porte d’entrée du web, et un magasin sans vitrine n’attirera que très peu de visiteurs!

Quelques ressources intéressantes sur le référencement et la rédaction sur internet:

Quelques outils indispensables pour le référencement

Dans la même lignée de mes billets précédents sur les conférences auxquelles j’ai assisté lors de la convention e-commerce, voici une note sur les outils à connaître pour celui qui souhaite améliorer le référencement de son site web ou blog. Alors évidemment, on retrouve beaucoup de Google dans cette liste, mais rien d’étonnant à cela quand on sait que sur le mois d’aout représente à lui seul 63,0 % des requêtes effectuées sur l’ensemble du web.

  • La recherche avancée Google qui permet par exemple de faire une recherche de toutes les pages indexés sur Google pour un domaine donné. Mais d’autres options peuvent être utiles pour celui qui s’interesse au SEO.
  • Les commandes a utiliser dans la barre de recherche Google ou Yahoo! sont souvent des raccourcis à la recherche avancée. Des outils utiles pour le référenceur.
  1. link:monsite.com : Fourni une liste de pages qui font un lien vers la page monsite.com (backlinks)
  2. linkdomain:monsite.com : Permet de voir les pages qui font un lien vers toutes les pages appartenant au domaine monsite.com
  3. site:monsite.com : Permet de lister les pages indexées dans tout le site monsite.com

Pour en savoir plus sur ces commandes, je vous conseille la lecture de l’article sur Webrankinfo : Les commandes site: link: et linkdomain sur Google et Yahoo.

  • Il faut savoir que la commande link: est bridée sur Google, donc il est préférable d’utiliser l’outil Yahoo Search Site Explorer qui fournira une liste plus exhaustive.
  • Le lien « en cache » disponible dans les résultats de recherche permet de voir la dernière version d’une page que Google a indexé avec la date de cette indexation. Sur ce même bandeau, vous apercevrez un lien « Version en texte seul » qui permet de voir exactement ce que Google voit et les élements d’une page qui pourront être référencés
  • La Google Toolbar offre une vision directe de du PageRank de la page visitée avec d’autres raccourcis vers les services Google.
  • Les outils permettant de générer un sitemap:

      – http://www.auditmypc.com/free-sitemap-generator.asp
      – Le sitemap generator de Google
      – http://www.xml-sitemaps.com/
      – Le plugin sitemap generator pour wordpress

 On notera qu’un fichier sitemap ne doit pas dépasser 50 000 lignes.

  • Google Trends Websites pour voir les tendances de traffic et comparer plusieurs mots-clés sur le moteur Google.
  • Les outils de mesure d’audience, indispensables pour connaitre quel type de contenu vous apporte le plus de traffic, quels sont les mots-clés qui vous apporte du traffic… Il y en a beaucoup d’autres, mais je vous en présente les 2 outils (gratuits) les plus utilisés:

       – Google Analytics
       – Xiti

  • Les plugins utiles pour Firefox
  1. LORI (Live of Request Info) pour connaitre le temps de chargement d’une page.
  2. Show IP pour voir l’adresse IP et d’autres informations sur le serveur.
  3. FlagFOX affiche un drapeau pour voir le pays du serveur web visité.
  4. Webdeveloper ajoute une barre d’outils utile pour le développement web et l’affichage des informations (attributs ALT des images, code CSS, balises title…). Indispensable !

Je pense qu’il y a beaucoup d’autres outils utiles pour le référencement mais il y a de quoi faire avec cette petite liste déjà.

Référencement: 20 astuces pour améliorer son positionnement dans les moteurs de recherche

Voici quelques astuces glannées au cours des différentes conférences sur le référencement que j’ai pu suivre lors du salon e-commerce 2008.

  1. Pensez référencement avant même la création du site et inclure ce point dans le cahier des charges de votre projet !
  2. Renseigner les balises <title></title>
  3. Organiser le contenu de son site. Réfléchir sur une navigation et organiser les rubriques de manière à ce qu’elles soient compréhensibles pour l’homme et les moteurs de recherche.
  4. La mise en place d’un fil d’ariane permettra de guider le visiteur dans sa navigation, il faudra aussi penser au plan du site pour lister l’arborescence des pages, cette page est utile pour l’utilisateur et elle permet en plus aux moteurs de détecter toutes les pages d’un site (les robots indexent les pages au fur et à mesure en naviguant de lien en lien).
  5. Créer des pages de contenu avec un minimum de 113 mots et un maximum de 1320 mots.
  6. Opter pour un minimum de 500 ou 600 mots clés pour une bonne campagne payante adwords. Le site http://keyworddiscovery.com/ permet d’avoir une vue sur les mots clés peu utilisés et d’optimiser sa campagne.
  7. Regarder le code source des sites concurrents peut permettre d’améliorer sa stratégie vis à vis d’un autre site (utilisation de mots clés différents par exemple…)
  8. Pour connaitre tous les sites hébergés sur une même IP, se rendre sur live search et tapper ip://adresse_ip
  9. A savoir que les internautes formulent généralement leurs requêtes en 1 (22%), 2 (26%) ou 3 (18%) mots clés.
  10. La technique des sites dit « satellites » visant à améliorer le référencement est inutile et sanctionnée par les moteurs de recherche.
  11. Google pénalise les pages qui possède plus de 50 liens.
  12. Il est important de créer des ancres sur un lien qui ont du sens. Par exemple préférer un texte de type « Astuces pour un meilleur référencement » plutôt que « Cliquer ici pour les astuces pour un meilleurs référencement ». Aussi il faut savoir que si il y a deux même liens sur une page avec deux ancres différentes, c’est la 1ère ancre qui sera pris en compte pour le référencement.
  13. Surveiller les pages de sortie et faire des liens de qualités vers des sites au contenu de qualité.
  14. Cibler au maximum le contenu de son site. Avec le principe de la longue traine, on sait maintenant que travailler sur un secteur de niche permettra à court terme d’apporter un trafic qualifié.
  15. Il faut établir un équilibre et éviter la dépendance de Google, même si il est souvent important, le traffic provenant de Google ne doit  pas dépasser 50%.
  16. Inscrire son site sur les annuaires du référence type DMOZ. A voir: QualiSEO, un annuaire d’annuaire pour optimiser son référencement et sa visibiltié.
  17. Pour un site e-commerce, il est important de fournir du contenu, de l’information pertinente pour chaque produit.
  18. Séparer la mise en forme du code est essentiel pour avoir des pages plus légères. Les pages de plus de 100ko n’étant pas indexé.
  19. Il ne faut pas abuser des mots-clés: mettre seulement quelques mots clés par page ( 2 ou 3 termes). Si il y en a trop, on peut avoir une perte de sens de la page.
  20. Ne pas utiliser id= comme nom de paramètre dans ses urls. D’ou l’importance du point 1.

Référencement : ce qu’il ne faut pas faire

On nous parle souvent de ce qu’il faut faire pour optimiser son site en matière de référencement naturel dans les moteurs de recherche, mais voici déjà ce qu’il ne faut pas faire:

  • Utiliser le même titre pour toutes les pages
  • Avoir un site full flash ou avec beaucoup d’images et d’éléments graphiques (et donc trop peu de texte)
  • Essayer de tromper les moteurs de recherche en insérant un nombre trop important de mot-clés sur une même page
  • Utiliser Javascript pour lier les pages d’un site web
  • Utiliser des redirections de page en javascript
  • Dupliquer le contenu de votre site web ou pomper le contenu d’un autre site

Source : le blog web marketing

QualiSEO: un annuaire d’annuaires pour optimiser son référencement et sa visibilité.

Les spécialistes du SEO (Search Engine optimization) vous le diront souvent, en matière de référencement naturel, l’une des premières choses à faire (après la qualification des mots-clés sur lesquels se positionner et l’optimisation technique de son site …) sera l’inscription de son propre site dans les annuaires.

Il existe justement un très grand nombre d’annuaires gratuits et payants, généralistes ou thématiques qui offrent la possibilité au webmaster d’y inscrire son site pour améliorer son référencement dans les moteurs de recherche.

QualiSEO a eu la bonne idée de répertorier tous ces annuaires selon certains critères et valider leur qualité pour faciliter le travail du référenceur: