Laurent Bourrelly

SEO Rockstar

samedi, octobre 13, 2007

GoogleGuy n'a pas disparu !

RustyBrick a remarqué que GoogleGuy avait fait une brêve apparition sur un post de WebmasterWorld après plus d'un an de silence.
Merci à GoogleGuy de nous faire savoir qu'il est toujours vivant, même si ses interventions ne semblent plus aussi pertinentes qu'auparavant. La cause sans doute à Matt Cutts qu'on soupçonne toujours fortement d'être GoogleGuy.

dimanche, novembre 14, 2004

GoogleGuy dévoilé à cause de l'Iocaine Powder

Dan Egnor, vainqueur du First International RoShamBo Programming Competition et recruté par Google à la suite de sa victoire, semble être GoogleGuy. Il a donné un indice important dans sa présentation de GoogleGuy sur le blog Google en parlant d'Iocaïne Powder car c'était le nom du projet de Dan lors du concours.
Cependant, la rumeur court que GoogleGuy pourrait être plusieurs personnes qui se relaient.

mardi, septembre 21, 2004

Différence de classements pour 'num=nnn'

L'internaute utilise la commande num=nnn après les termes d'une requête pour afficher toutes les pages (nnn) qu'il souhaite d'un coup. Seulement ça n'a pas l'air de fonctionner très bien...

GoogleGuy dit :
"Yep, si tu donnes un grand nombre dans "&num=" alors les chances grandissent pour que nous trouvions plusieurs pages du même site et que nous les groupions ensemble."

Menu de navigation en images

Le webmaster se demande si les boutons de navigation en image (en liens statiques) sont aussi efficaces que les liens texte, notamment pour l'attribution du PageRank et du positionnement.

Voici le court commentaire de GoogleGuy :
""Je pense que ça doit être bon. Sois juste sûr que les liens sont statiques"

Ce que j'aime mieux à propos de MSN

Il s'agit du problème relatif au robots.txt car le webmaster s'étonne du fait que malgré l'interdiction dans robots.txt de crawler certaines pages, elles apparaissent quand même dans les résultats de recherche de Google alors que MSN respecte l'interdiction.

GoogleGuy explique :
"Si une page est dans robots.txt, nous n'allons pas la crawler, mais nous pouvons l'afficher dans les résultats de recherche si nous avons des raisons de penser qu'elle est pertinente par rapport à la requête. Dans ce cas, nous n'afficherons que l'URL (pas de titre, pas de description et pas de cache).
Voici un bon exemple : pendant longtemps, le California Department of Motor Vehicles (DMV) avait un robots.txt qui ne laissait pas les moteurs crawler les pages. Seulement, pour une recherche comme "california dmv" nous pouvions retourner une URL, même si nous ne pouvions crawler la page.
Si tu ne veux pas que la page apparaissent du tout, tu peux le garantir en laissant Google voir la meta tag "noindex" lors du crawl.
Pour les curieux, nous avons réussi à convaincre DMV de laisser les moteurs crawler leur site, mais nous avons du prendre un rendez-vous et nous avons fait la queue pendant un moment. ;-)

mercredi, août 18, 2004

Changement dans Google ?

L'internaute a noté une amélioration progressive du positionnement de sites avec Adsense

Malgré les interrogations des autres posteurs, GoogleGuy dément :
"La publicité chez Google (Adwords ou AdSense) n'a aucun effet (positif ou negatif) sur le classement Google."

Pourquoi tous les backlinks ne se voient pas dans Google ?

L'internaute se plaint de ne pas voir tous les backlinks avec la commande link:www.monsite.com

En fait GoogleGuy rebondit sur de précédentes discussions à propos de l'intégration des backlinks venants de pages à PageRank faible :
Auparavant, j'expliquais que ça serait bien pour les petits sites (par ex."les sites de Maman et Papa" qui n'ont pas beaucoup de backlinks et un PageRank > 4) de pouvoir visualiser leurs backlinks... Je peux comprendre pourquoi un site qui a des backlinks à faible PageRank voudrait en voir quelques uns.
Selon moi, les gens font 2 erreurs à propos des backlinks que nous montrons. Premièrement, quand ils ne voient pas un backlink avec la commande link:, ils pensent que le lien ne compte pas. Le fait est que nous avons la copie complète des liens que nous voyons, mais nous ne montrons pas tout. L'autre erreur est d'assumer que les liens que nous montrons avec la commande link: sont plus importants. Honnêtement, je ne payerais pas plus d'attention que cela aux liens qui apparaissent avec la commande link:"

Quelles restrictions sur les 100 liens maximum par page ?

La question est simple, mais l'internaute confond la limite des 100 Ko et 100 liens : "J'ai lu à plusieurs endroits que GoogleBot n'indexait que 100 liens par page. 1) Est-ce vrai ? 2) Est-ce vraiment limité à 100 liens ?"

GoogleGuy précise :
"Comme les autres le disent, la limite tourne plutôt autour des 101 Ko par page. 100 liens est juste un conseil qui suggère de garder les pages sous 101 Ko. Tu peux mettre 150 ou 200 liens par page sans problème, mais garde à l'esprit que si tu as plusieurs centaines de liens par page, tu devrais réfléchir à ce qui est le mieux pour les visiteurs. Il doit y avoir un moyen de retravailler les liens pour qu'ils soient plus logiques pour le visiteur et les outils de recherche (par ex. en les classant par ordre chronologique, ordre alphabétique ou par catégories, etc.)."

mardi, juillet 27, 2004

C'est fini pour l'astuce des pages "onmouseover".

L'internaute observe que certaines pages utilisant des pages satellites remplies de mots clefs avec une redirection de type Javascript avec la commande "OnMouseOver" ne figurent plus dans l'index.

Voici ce que dit GoogleGuy :
"Je sais que nous avons récemment nettoyé l'index de pages coupables de spam. Si vous avez payé un référenceur qui vous a convaincu d'utiliser des "onMouseOver" en Javascript sur les balises du Body de vos pages, soyez sûrs d'avoir lu http://www.google.com/webmasters/seo.html et http://www.google.com/webmasters/guidelines.html#quality avant de contacter Google. En premier lieu, soyez certains d'avoir retiré toutes les pages satellites de votre site. Il faut être sûr que toutes les pages bidons soient parties avant d'écrire, puis vous pouvez envoyer un email à webmaster@google.com avec comme sujet "reinclusion request" en nous donnant le plus de détails possible sur votre situation.
Je pense qu'il y a un référenceur qui a convaincu ses clients d'utiliser toutes les techniques de redirection Javascript, pages satellites et sites miroirs qui lient à d'autres sites et les sites de clients. Le résultat est que tous les sites de clients sont désormais estampillés comme spammeurs.
Encore une fois, soyez sûrs d'avoir enlevé toutes les pages satellites ou les liens de spam qu'un référenceur vous a convaincu de mettre sur votre site avant d'écrire à Google avant une reinclusion. Cela va être néfaste pour votre site si nous vérifions et que des pages de spam figurent encore sur votre site."

dimanche, juillet 18, 2004

Site Flavored Search

Le post de départ annonce le nouveau service de Google. GoogleGuy répond à un commentaire qui demande pourquoi un site voudrait diriger le visisteur vers d'autres sites semblables.

GoogleGuy répond ainsi :
"Enormément de sites qui ne cherchent pas à faire un profit, comme les sites d'éducation ou d'information, peuvent considérer comme une plus-value d'avoir une recherche personalisée sur leur thème. Les visiteurs apprécieront certainement aussi.
Je peux comprendre la catégorie des "ne pas envoyer les visiteurs sur d'autres sites que les miens", mais je pense que beaucoup de chercheurs utiliseront, évalueront et ajouterons aux favoris des sitres qui proposent un tel service. J'ajouterais seulement qu'il faut l'essayer et le tester pour voir et si vous avez vraiment peur que le service dirige le visteur vers la concurrence, enlevez le. Certains Webmasters trouveront que cela profite à l'expérience de leurs visiteurs et le garderont.

mardi, juillet 13, 2004

Backlink depuis une page de PR3

L'internaute demande si les backlinks ne comptent qu'à partir de PR4.

Réponse de GoogleGuy :
"Je crois que lors d'une récente conférence à Londres de Search Engine Strategies, DaveN à suggèré à un représentant de Google s'il ne fallait pas montrer une échantillon au hasard de backlinks au lieu des meilleurs. Cela permettrait aux Webmasters de petits sites de voir leurs backlinks, même s'ils ne possédent pas de backlinks à fort PageRank.
Je sais que le représentant de Google a pensé que c'était une très bonne idée et que cela aiderait les petits sites sans backlinks à fort PageRank. Si vous voyez que la commande link: commence à retourner un plus grand spectre de backlinks, vous pouvez remercier WebmasterWorld pour la suggestion."

Est-ce que Google permet la vente de PageRank ?

Question brulante sur le sujet de la vente de liens par certains sites. Est-ce un interdit ?

Réponse catégorique de GoogleGuy :
"Je pense que nos conseils aux webmasters donnent une bonne réponse à cette question http://www.google.com/webmasters/guidelines.html#quality
En particulier :
Ne participez pas à des programmes d'échanges de liens mis en place pour améliorer votre positionnement ou votre PageRank. En particulier, évitez les liens depuis des Spammeurs ou "mauvais voisinage" car votre classement pourrait être affecté par ces liens.
C'est toujours vrai.

Profondeur des niveaux ?

Il s'agit de savoir sur combien de niveaux Google peut lire un site. L'internaute annonce 4 niveaux.

GoogleGuy confirme :
"Oui, c'est une bonne réponse. Un plan du site est un bon moyen de mettre en valeur des parties de votre site qui seraient normalement cachées à plusieurs niveaux de profondeur."

lundi, juillet 05, 2004

Est-ce que les redirections sont mauvaises pour Google ?

Il s'agit de savoir si Google va pénaliser des redirections de sous-domaines ou domaines vers 1 seul site.

Une réponse claire de GoogleGuy :
Si les pages ont disparu, il est préférable de faire une redirection permanente de type 301. Les redirections qui posent problème sont les pages qui apparaissent dans un outil de recherche et qui redirigent le visiteur vers une autre page lors d'une visite. C'est ma définition d'une redirection malicieuse. Par contre, si les pages ont vraiment disparu, il est normal de mettre une redirection permanente en place pour que les visiteurs et les outils de recherche puissent aller vers les nouvelles pages.

jeudi, juin 24, 2004

Enlever une URL de l'index de Google

L'internaute cherche à désindexer une URL le plus rapidement possible. Il a essayé Google URL Console mais ça ne marche pas.


GoogleGuy donne son avis :
"As-tu eu un message d'erreur ou il n'y avait aucun effet ? Si un site est hors service, cela peut nous prendre quelques jours pour vérifier que ce site est vraiment parti. L'autre possibilité est de permettre de crawler cette page, mais d'utiliser la meta "noindex". Je pense que cela nous empêchera de faire référence à cette page (tu peux tester pour voir si ça marche, mais je pense que c'est bon)."

dimanche, juin 20, 2004

Comment la localisation géographique influe sur le référencement ?

Il s'agit de la localisation géographique de l'hébergement du site. Est-ce important d'être hébergé dans le pays que l'on cible ?

GoogleGuy répond ainsi :
"La seule façon que l'on a de savoir si un .com, par exemple, est vraiment pertinent pour une recherche en UK est de regarder si ce .com est hébergé en UK"

Comment indéxer un contenu très large ?

L'internaut posséde un site contenant plus de 1400 histoires qu'il aimerait toutes indéxer. Comment faire ?

GoogleGuy rebondit sur la réponse d'un autre internaute :
Oui, les plans de site sont un allié dans ce cas. Quelqu'un m'a déjà posé la question il y a un temps et j'ai recommandé de faire un découpage chronologique. Les histoires de 2004, 2003, 2002,..., 2000
Puis sur ces pages, les histoires de Janvier à Décembre. Ainsi, sur ces pages, tu peux lier toutes les histoires du moi en question. Si tu as 1400 histoires, tu dois pouvoir combiner les histoires par mois et année.
Par exemple :
- Histoires depuis Janvier 2000
- Histoires depuis Février 2000
...
- Histoires depuis Avril 2004
Ainsi, sur chaque page, tu peux lier les histoires de chaque mois.
Il y a différentes façons de développer un plan du site (ordre alphabétique, par sujet, etc...), donc je regarderais cela du point de vue de l'utilisateur, mais aussi d'une façon linéaire (tu ne veux pas que ta carte du site soit de 7 niveaux de profondeur... 1-3 niveaux est le mieux), tout en gardant les pages sous la barre des 100Ko.

Pénalisé par Google à cause de liens à des sites interdits

L'internaute observe que les liens qu'il fait vers d'autres ne sont pas pris en compte. La cause possible est des liens vers des sites qui sont blacklistés par Google.

La réponse de GoogleGuy :


Si tu penses être lié à des sites spammeurs ou blacklistés et que tu as arrêté, tu peux écrire à webmaster [at] google.com avec comme sujet "reinclusion request" en décrivant la situation. Je jetterais un coup d'oeil.

Question d' anchort text

Il s'agit ici de déterminer si l'anchor text (le texte qui figure sur un lien) est déterminant sur la totalité du texte ou si on peut être positionné sur une partie du texte seulement. Exemple : le keyword cible est "ce produit", mais l'anchor texte des liens entrants est "ce produit online". Est-ce que le positionnement sur "ce produit" va être fort ?

Voici ce que dit GoogleGuy :
"Cibler une diversité de phrases courtes comme cible est mieux pour ton commerce sur le long terme." Quand on regarde ses logs, on conclue rapidement qu'il est important de cibler d'autres phrases et pas seulement la phrase du "Saint Graal".

dimanche, juin 13, 2004

Liens sortants... sont ils nécessaires ?

Question pertinente à propos des liens sortants. Le test conduit par l'internaute concerne le fait que son site se trouve mieux positionné depuis qu'il a ajouté sur sa page des sites au contenu similaire, notamment au niveau de la balise "title" et des META "keywords" et "description".

GoogleGuy nous donne son avis :
Les référenceurs ont l'air de débattre énormément sur ce sujet. Même au sein des référenceurs les plus pragmatiques, certains pensent qu'il est mieux de planquer sont PageRank. D'autres suggèrent que c'est mieux de "ressembler à un vrai" site, en notant que les "vrais" sites ont souvent des liens sortants. Je pencherais plutôt pour la dernière solution. Si un référenceur essaye de recréer les paramètres de liens/contenu d'un "vrai" site, il est vraisemblable qu'il obtienne au final un vrai site utile. Je ne plaisante pas vraiment en disant ça, car la règle d'or que j'appliquerais impliquerait que les visiteurs de ton site voudrait probablement connaître d'autres sources similaires. Le principe final voulant qu'un site que les visiteurs considèrent comme utile, soit revisité et recommandé à leurs amis.
Un exemple rapide : J'ai récemment lu un article sur un programme appelé KCeasy on Slashdot. J'ai regardé leur site kceasy.com et noté des liens vers giFT (le protocol) et d'autres clients de giFT. Il s'agit d'un site non-commercial qui essaye de faire passer l'info au sujet de leur application et donne donne des détails sur les autres options. Ce site en particulier serait bien moins utile si l'auteur essayait de planquer le PageRank ou de garder le visiteur sur son site. A la place, les liens sont utiles autant que le site lui-même. C'est un bon site; le genre de site qui reste dans l'esprit d'un visiteur intéressé.
C'est mon avis personnel, mais je suis de l'école "construis un bon site et le positionnement suivra". D'autres personnes appartiennent à l'école des "travaille le positionnement d'abord et ensuite développe ton site". Je laisse la parole à la 2ème école pour donner leur avis.

Etre indexé dans Google AU

L'internaut demande pourquoi un de ses sites est très bien positionné dans google.com, mais n'est pas indexé du tout dans google.com.au
Comme le site est voué au commerce en Australie, cela peut-être préjudiciable.

La réponse :
Ton meilleur choix serait d'avoir un nom de domaine en .com.au . En faisant cela, tu serais sûr que les outils de recherche inclueraient ton site dans les recherches liées à l'Australie. Une autre astuce serait de prendre un hebérgement en Australie, aidant ainsi à ressortir dans les recherches spécifiques à l'Australie.

mercredi, juin 09, 2004

Changement de php vers aspx ... Comment être sûr de rester indexé.

L'internaute se demande quel est le meilleur moyen de rester indexé, alors qu'il doit rediriger ses visiteurs de pages en .php vers de pages en .aspx

La réponse de GoogleGuy :
Je pense que c'est OK d'utiliser au choix les extensions php ou aspx. Note que les extensions [fichier:aspxblabla] trouvent un grand nombre d'exemples de fichiers .aspx que nous crawlons sans problème. Le post précédent donne de bons conseils pour changer les extensions de fichiers. Si beaucoup de liens externes pointent vers vos pages, changer l'extension peut signifier que certains liens pointeront vers des pages inexistantes. Si le site est neuf, cela a moins d'importance.

vendredi, juin 04, 2004

Que veut dire une GoogleToolbar grisée

L'internaute se demande la signification de la barre horizontale du PageRank quand elle est grisée.

GooglGuy explique :
La GoogleToolbar est grisée quand nous ne pouvons pas trouver de PageRank pour ta page. C'est quasiment toujours parce que la page n'a pas été crawlée pendant la prise d'info du PageRank. Normalement, tu dois seulement attendre la prochaine mise à jour de l'aperçu du PageRank, car entre temps nous avons trouvé la page.

Une autre menace pour les Webmasters ?

L'internaute parle d'une nouveauté aperçue dans les résultats de Google qui donne des suggestions de keywords. http://trademark.blog.us/blog/2004/04/22.html

La réponse de GoogleGuy :
C'est une expérimentation qui est en cours depuis un moment. Cela montre les requètes similaires qui peuvent être utiles. Les spéculations qui semblent sponsorisées ne le sont pas, car c'est généré par un algorythme et l'argent ne rentre pas en compte.

Est-ce bien de lier des sites ensemble ?

L'internaute travaille sur un réseau de sites. Il prévoit de faire une section sur chacun, en ajoutant des liens vers ses autres sites.

GoogleGuy répond en 2 temps :
Je conseille de regarder comment cela semblerait pour un visiteur ou un concurrent. Je reste prudent avec les sites neufs + beaucoup de sites + beaucoup de cross-linkage pour être sûr que ça ne fasse pas trop louche si quelqu'un regarde ton site.

Je veux juste ajouter que tu devrais essayer de regarder avec des yeux neufs, comme s'il s'agissait du site de quelqu'un d'autre. Si tu penses que cela reste acceptable pour un éventuel concurrent ou quelqu'un qui remplirait un 'spam report', alors c'est bon pour moi.

caractères "illégaux" dans l'URL... Lesquels utiliser ?

La question tourne autour de la validité des underscores (_) dans une adresses Web.

La réponse de GoogleGuy :
Je me contenterais d'utiliser les points, virgules et tirets. La plupart des gens utilisent les tirets. En prenant un underscore, Google va combiner les 2 mots de chaque côté en un seul mot. Ainsi bla.com/kw1_kw2.html ne sortira pas pour kw1 et kw2. Il faudra chercher sur kw1_kw2 pour faire sortir la page. Les caractères utilisables dans un nom de domaine sont assez restreints : a-z, 0-9, et '-'. Pour les sous-domaines et les chemins d'URLs, tu as un peu plus de fléxibilité, mais je recommande de rester simple, car c'est plus simple pour le moteur et pour l'utilisateur à comprendre. Il est actuellement à l'étude de pouvoir utiliser toutes sortes de caractères dans un nom de domaine (ex:chinois, coréen, japonais), mais c'est un peu hors-sujet et je ne suis pas familier avec l'encodage. En fait, il faut rester simple quand vous le pouvez.

Page en cache : update partiel possible ?

Est-il possible que Google mette en cache seulement une partie des changements sur une page en laissant le contenu ancien par dessous ?

GoogleGuy est dubitatif :
Je pense que c'est très improbable, d'après mes connaissances en crawling et indexing. Les pages sont mises-à-jour automatiquement. Je peux imaginer qu'un coin bizarre d'une page coincé dans de multiples cadres, pourrait laisser un seul cadre lu en oubliant le reste. C'est un cas extrème et je ne pense pas que ça soit le cas ici

jeudi, juin 03, 2004

Pas de date dans les résultats de Google

Question pertinente concernant la date qui figure près de l'URL dans les résultats de Google. Que signifie cette date et faut-il en avoir une ?

Réponse de GooglGuy :
Nous avons un crawl et un refresh quotidien (Fresh Crawl) des millions de pages. Je pense que la date apparaît si :
a) la page est crawlée
b) la date correspond est entre N jours de la date du Crawl, où N est un chiffre comme 2 ou 3.
Ainsi, si nous visitons ta page le 20 Avril, pendant le Fresh Crawl, tu verras une date auprès de l'URL pendant le 20, 21 et 22 Avril. La différence entre le "Deep Crawl" et le "Fresh Crawl" était beaucoup plus significative il y a un an, quand nous lançions un indéxage profond (Deep Crawl)une fois par mois. Au gré des améliorations de Google, le Deep Crawl est devenu beaucoup plus fréquent et le Fresh Crawl beaucoup plus profond. De ce fait, il n'y a pas vraiement de différence notable entre le 2. Ceci dit, je pense que nous affichons une date seulement pendant le Fresh Crawl et sa période de référence.

Est-ce qu'un livre sur l'optimisation des outils de recherche datant de 2002 est toujours d'actualité ?

La réponse de GoogleGuy est claire.

Il explique :
Si le livre donne de solides conseils pour construire un meilleur site plus performant, les infos de 2002 seront toujours d'actualité. Par contre, s'il s'agit plutôt de "super secrets" et autres trucs et astuces, il sera certainement moins à jour.

Peut-on récupérer une page PR5 effacée

La question tourne autour de l'utilisation d' anciennes pages de PageRank 5 pour y mettre un nouveau contenu. GoogleGuy dit qu'il n'y a pas de problème.

Voici sa réponse :
Tu devrais pouvoir remettre ces vieilles pages sans problème. Tu peux y mettre un nouveau contenu ou l'ancien, ainsi que des liens vers les nouvelles pages. Par contre, tu peux aussi utiliser une redirection permanente 301.

vendredi, mai 28, 2004

Est ce que les liens placés après 100k de contenu sont pris en compte ?

Cette fois-çi GoogleGuy n'est pas sûr. On ne sait pas non plus ce que donnera son expérience, car le débat reste ouvert à propos du fait que Google peut indéxer du contenu en dehors du cache ou pas.

Il dit :
Hônnetement, je ne sais pas. Je vais faire une expérience et je vous dirais les résultats.

dimanche, mai 23, 2004

Fréquence de mise à jour du cache DNS de Google

La question est relative à un changement d'hébergeur. Combien de temps faudrait-il laisser l'ancien site en place pour permettre une transition correcte? L'internaute propose de laisser son ancien site en place pendant A mois.

Googleguy répond :
Cela ne peut pas faire de mal si vous pouvez laisser l'ancien site en plase autant de temps. Cependant, je pense qu'une ou deux semaines suffisent. Je vais essayer de demander à quelqu'un du staff Crawl, si j'en croise un dans les couloirs.

Bénéfice des noms de domaine expirés ?

GoogleGuy répond à l'attente d'un internaute concernant les noms de domaine expirés qui affichaient toujours une PageRank, mais cela ne semble plus être le cas.

GoogleGuy confirme :
Oui, le bénéfice des noms de domaine expirés continue de disparaître.

Sites similaires sur 2 marchés différents pénalisés par la pénalité de contenu identique

Le sujet qu'adresse GoogleGuy traite des risques encourus à cause d'un contenu identique sur 2 sites différents.

Il dit :
C'est une question complexe, mais je donnerais quelques indices. Je doute que vous soyez victime d'une quelconque pénalité dans le cas présent. Est-ce que les pages des 2 sites sont des copies conformes ou est-ce qu'elles sont similaires, mais pas identiques ? En supposant que les pages sont identiques, nous allons détécter cela et ne montrer qu'une seule des 2. Un moyen d'aider est de développer les pages des 2 sites un peu plus pour ne pas en faire de copies conformes. Une chose dont je ne m'inquiéterais pas est est l'affichage du PageRank. D'un certain côté, il est normal que vous recueillez la même quantité de PR, mais qu'elle soit divisée entre 2 ou 3 sites. Les "piles" individuelles de PR sont ainsi plus petites, mais le PR total n'a vraisemblablement pas bougé. A cause des filtres que nous utilisons pour comptabiliser les liens externes, une baisse dans l'affichage du PageRank peut donner un résultat de backlins moindre que la réalité. Cependant, il faut garder à l'esprit que tous les backlinks sont comptabilisés, même si tous ne sont pas affichés. Je pense que vous êtes sur la bonne voie. Je recommande de continuer à construire les sites en co.uk et .com.au un peu plus et développer du contenu différent si vous pouvez. JE ne m'inquiéterais pas pour les pénalités. Je pense que si vous décidez sensiblement de dissocier les 3 sites en .co.uk, .com.au et .net et d'ajouter du contenu pertinent dedans, les sites devraient se stabiliser avec un PR assez bon.

Sites présent dans l'index mais pas sur les requètes

Problème de base adressé ici par GoogleGuy. En effet, l'internaute demande pourquoi ses sites sont présents dans l'index de Google, mais ils n'apparaissent nulle part quand il tape des requètes dans l'outil de recherche.

Le commentaire de GoogleGuy :
J'ai regardé le premier site que tu mentionnes. Il semble que le nom de domaine a été enregistré il y a seulement 2 mois de ça. J'ai aussi regardé les backlinks, pour voir que seulement 2 sites pointaient vers le tien - de plus, ce sont des sites de ta liste. Ce n'est pas mauvais, mais cela veut juste dire que tes sites sont relativement neufs et n'ont pas assez de backlinks. Je te conseille juste d'être patient et de déveopper le site ainsi que les échanges de liens

samedi, mai 22, 2004

Poids de l'extension du nom de domaine plus faible en .nu ?

Concernant le poids des noms de domaine, GoogleGuy est plus énigmatique. A l'heure actuelle il est catégorique sur le fait que Google ne fasse pas de discrimination par rapport à l'extension du nom de domaine. Par contre, il n'exclut pas que Google le fasse dans le futur.

Son commentaire :
Historiquement, nous (Google) n'avons donné plus ou moins de poids à un nom de domaine en .nu ou n'importe quelle autre extension. Je ne vais pas exclure que nous ne le fassions pas un jour, mais pas pour l'instant

Google Ranking, la confusion

En réponse à la question sur l'importance des Backlinks, GoogleGuy semble catégorique en disant que tous les liens comptent, même ceux qui n'apparaissent pas comme étant comptabilisés par Google.

Voici son commentaire :
Nous (Google) voyons beaucoup plus de liens que nous rapportons actuellement. Du coup, même si une page ne semble pas avoir beaucoup de backlinks, elle peut tout à fait avoir des liens que nous voyons et comptabilisons. Si vous pouvez trouver les documents originaux sur le PageRank, il s'agissait d'une note sur un seul niveau de page. Tout un site n'avait pas de Page Rank et tous les liens pouvaient aider. Je pense que le Page Rank original ne faisait pas la différence entre un lien externe et interne. Finalement, je recommende de choisir vers qui faire un lien, en fonction de la qualité du site. Si vous pensez que ce site va plaire à vos visiteurs, je ferais un lien vers lui. Par contre, si le site ne semble d'aucune utilité ou n'apporte aucune information pertinente au visiteur, je ne ferais pas de lien vers lui.

Comment un site est sorti des abysses des résultats de Google ?

Dans ce post, GoogleGuy intervient pour répondre à un Webmaster qui commente sur une amélioration notable de son positionnement. Dans sons propos, ce Webmaster explique que le changement le plus important a été d'écrire le texte le plus naturellement possible, au lieu de l'optimiser pour les outils de recherche en incluant des mots clefs un certain nombre de fois sciemment.

GoogleGuy répond à cette remarque en parlant du point N°8 :
De très bons conseils dans ce post, surtout le N°8. Faire un site plus naturel, sans chercher à l'optimiser pour les outils de recherche peut vraiment aider.

Les lettres majuscules dans l'URL font elles une différence ?

GoogleGuy répond clairement que cela ne fait pas de différences pour Google au niveau de l'utilisation de majuscules ou minuscules pour les termes contenus dans une URL.
Il dit :
Non. Utiliser des lettres majuscules ne fait pas de différence. Les requètes ne sont pas sensibles à la casse.

Démarrage du blog sur GoogleGuy

Ce blog va traiter en français des propos de GoogleGuy, personnage énigmatique qui répond aux posts d'internautes sur un forum américain.
Il est difficile de croire que GoogleGuy agit sans le consentement de Google, mais ses interventions sont utiles pour appréhender l'évolution de Google.