samedi 5 juillet 2008

SEO: Optimisation pour moteurs de recherche / Search engine optimizaion


SEO de l'anglais américain (Search engine optimization) est le procès d'augmenter le volume et la qualité du trafic vers un site Web depuis les moteurs de recherche via des résultats de recherche "naturels" ("organiques" ou "algorithmiques") pour des mots clés ciblés Habituellement, plus tôt un site est présenté dans les résultats de recherche ou plus haut "classé", plus les chercheurs se rendront sur le site. SEO peut également cibler différents types de recherche, y compris recherche d'images, recherche locale, et de l'industrie des moteurs de recherche verticaux. SEO peut être abordé de plusieurs façons, mais la tendance est basée sur la performance SEO.

Par expérience, nous avons constaté que PR (Page Rank) n'est pas absolu, c'est à dire certains sites avec PR 3 sommes mieux positionés que d'autres ayant PR 4 ou 5, celà est dû à des facteurs: l'age du nom de domaine, celà veut dire qu'un site avec PR 6 mais dont les mots clés sont mal-choisis ne mène pas à grand résultat. De plus que Google en tête des moteurs réactualise sa base de données, y compris PR chaque 3 mois. En conclusion: Le PR n'a pas toute cette importance dont on parle, exemple: http://www.engindz.com à PR3 et ils est positionné en première page google pour le mot clé engin zt il n'a que 6 mois d'age

Comme une stratégie pour augmenter la pertinence d'un site , SEO prend en considération comment les algorithmes de recherche fonctionnent et ce que les gens recherchent. Les efforts SEO efforts peuvent associer le codage d'un site, sa présentation et sa structure, ainsi que la détermination des problèmes qui pourraient empêcher l'indexation des moteurs de recherche et assurer la présence du site sur Internet. Une autre classe de techniques, connu sous le nom de black hat SEO or spamdexing, utilise des méthodes telles que les fermes de liens (link farms) et spam par mot-clé qui ont tendance à nuire au moteur de recherche l'expérience de l'utilisateur. Les moteurs de recherche chercheent les sites qui utilisent ces techniques et ça peut aller à les retirer de leurs indices.

L'initialisme "SEO" peut aussi se référer aux optimiseurs moteurs de recherche, les termes adoptés par n'importe industrie de consultants qui mène des projets d'optimisation pour le compte de clients, et par les employés qui effectuent les processus SEO aux foyers. Optimiseurs de moteurs de recherche offrent le SEO comme un processus autonome ou comme une partie d'une plus large campagne de marketing Internet. Parceque un SEO effectif nécessite parfois de modifier le code source HTML d'un site, les tactiques SEO peuvent être intégrées dans le développement et la conception d'un site web. Le terme "search engine friendly" est utilisé pour décrire la conception du site Web, des menus, des systèmes de gestion de contenu, des URL, des paniers et qui sont faciles à optimiser.

SEO comme une définition de service est d'abord apparue aux États-Unis grâce à l'organisation américaine des brevets et des marques sous le numéro de demande 77171330. Il a été approuvé pour publication et est défini comme étant "Services de marketing dans le domaine des ordinateurs dans la but de fournir des services de marketing pour le compte de tiers par la compilation des campagnes de publicité, services de promotion et de consultation pour les clients

Historique

Les Webmasters et fournisseurs de contenu ont commencé l'optimisation de sites pour les moteurs de recherche dans le milieu des années 1990, quand les premiers des moteurs de recherche étaient en train de cataloguer le Web. Au départ, tous ce qu'un webmaster avait besoin de faire, c'est soumettre une page Web ou, une URL, aux divers moteurs qui enverrait un Crawler afin "explorer" cette page, extraire des liens vers d'autres pages depuis le même domaine, et retourner des informations disponibles sur la page pour être indexés. Le processus implique un spider d'un moteur de recherche (robot qui parcours le web à la recherche de nouveaux sites/contenus ou mises à jours), il télécharge une page et le stocke sur le propre serveur du moteur de recherche , où un second programme, connu comme indexeur (robot indexeur) , des extrait les diverses informations concernant la page, tels que les mots que contient et où elles sont situés, ainsi que l'importance des mots spécifiques et tous les liens que la page contient, qui sont ensuite placés dans un programmae pour l'exploration à une date ultérieure.

Les propriétaires de sites ont commencé à reconnaître la valeur de leurs sites hautement classés et très visibles dans les résultats des moteurs de brecherche. ils reconnaissent également que plus le classement est élevé (sur 10) leur site le plus les gens cliquent sur le site. Selon les analystes de l'industrie, la première utilisation connue de l'expression d'optimisation de moteur de recherche "search engine optimization" en angalis a été un message spam (un spam est un message non sollicité) posté sur Usenet le 26 Juillet 1997. Rappelons-nous que le facteur Page Rank est relatif.

Les premières versions des algorithmes de recherche s'appuyaient sur les informations fournies par les webmaster comme la balise META tag mot-clé (keyword), ou les fichiers d'index dans les moteurs comme ALIWEB. Les Meta Tags fournissent un guide pour le contenu de chaque page. Mais l'utilisation de méta-données pour indexer les pages a été jugée moins fiable parce que les webmaster mettent des mots clés dans la balise META que ne sont pas vraiment pertinents sur le site. Les données inexactes, incomplètes et incohérentes dans les balises Meta causaient voir des pages classées dans des recherches non pertinentes. les fournisseurs de contenu Web manipulaient aussi un certain nombre d'attributs dans le source HTML d'une page dans une tentative de bien se classeer dans les moteurs de recherche.

En s'appuyant sur des facteurs exclusivement sous contrôle d'un webmaster, au début, les moteurs de recherche souffert de l'abus et de manipulation de classement. Pour de meilleurs résultats fournies aux utilisateurs, les moteurs de recherche ont dû s'adapter à assurer de montrer leurs résultats de recherche les plus pertinents, plutôt que les pages avec de nombreux mots-clés manipulées par les webmasters peu scrupuleux. Le fait que le succès et la popularité d'un moteur de recherche est déterminé par sa capacité à produire les résultats les plus pertinents à une recherche donnée permettant de ces résultats qu'ils sont faux transformerait les utilisateurs à trouver d'autres sources de recherche. Les moteurs de recherche ont répondu en développant les algorithmes de classement plus complexes, en tenant compte d'autres facteurs qui sont plus difficiles pour les webmasters à manipuler.

Étudiants à l'Université de Stanford, Larry Page et Sergey Brin développèrent "backrub", un moteur de recherche fondé sur un algorithme mathématique pour noter l'importance de pages Web. Le nombre calculé par l'algorithme, PageRank, est une fonction de la quantité et la force des liens entrants. Le PageRank estime de la probabilité qu'une page sera atteint par un internaute qui surfe au hasard sur le Web et suit les liens d'une page à une autre. En effet, cela signifie que certains liens sont plus forts que d'autres, comme une page PageRank plus élevé est plus susceptible d'être atteint par le surfeur aléatoire.

Page et Brin fonderent Google en 1998. Google a attiré un public fidèle parmi le nombre croissant d'utilisateurs d'Internet, qui aimait sa conception simple. Les facteurs Off-page tels que PageRank et analyse de liens hypertexte ont été examinés, ainsi que les facteurs on-page, afin de permettre à Google d'éviter le genre de manipulation dans les moteurs de recherche considérant uiniquement les facteurs on-page dans leurs classements. Bien que PageRank est plus difficile de jouer avec, les webmasters ont déjà développé des outils et systèmes de construction de liens (link building) pour influencer le moteur de recherche Inktomi. De nombreux sites axés sur l'échange, l'achat et la vente de liens, souvent sur une grande échelle. Certains de ces systèmes, ou un fermes de lien (link farms) , qui participent à la création de milliers de sites dans le seul but de spam de liens (lmink spamming).

En 2007, les moteurs de recherche ont intégré un large éventail de facteurs à ne pas divulguer dans leurs algorithmes de classement afin de réduire l'impact de liens de manipulation. Google dit qu'ilo classe les sites en utilisant plus de 200 signaux différents. Les trois principaux moteurs de recherche, Google, Yahoo et Microsoft Live Search, ne divulguent pas les algorithmes qu'ils utilisent pour classer les pages. Les praticiens de SEO peuvent également étudier les brevets détenus par divers moteurs de recherche pour mieux comprendre les algorithmes.

Les Webmasters et les moteurs de recherche:

En 1997, les moteurs de recherche reconassaient que les webmasters faisaeint des efforts à classer, et que certains webmasters étaient même en train de manipuler leur classement dans les résultats de recherche par pages avec du spam ou sans mots clés pertinents. Les premiers moteurs de recherche, comme Infoseek, ont ajusté leurs algorithmes dans un effort à prévenir les webmasters de la manipulation de classement.

En raison de la forte valeur commerciale des résultats de recherche ciblée, il y a un potentiel de relation publicitaire entre les moteurs de recherche et SEO. En 2005, une conférence annuelle, AIRweb, Adversarial Information Retrieval on the Web, a été créée afin de discuter et de réduire au minimum les effets néfastes de l'agressivité des fournisseurs de contenu internet.

Les compagnies SEO qui emploient des techniques trop agressives peuvent causer à leurs clients une interediction des sites Web dnas les résultats de recherche. En 2005, le Wall Street Journal a reporté le profil d'une entreprise, Traffic Power, qui aurait utilisé des techniques à hauts risques à son propre site et à ses clients. Google a confirmé par la suite qu' il a banit en effet Traffic Power certains de ses clients.

Certains moteurs de recherche ont également tendu la main à l'industrie SEO, et sont souvent les commanditaires et les clients aux conférences SEO, discussions et de séminaires. En fait, avec l'avènement de l'inclusion payée, certains moteurs de recherche ont maintenant un intérêt à la seinete de l'optimisation. Les principaux moteurs de recherche fournissent des informations et des directives pour aider l'optimisation de site: Des programmes pour aider les webmasters à savoir si Google a eu des problèmes d'indexation de son site Web et fournir également des données sur le trafic de Google sur le site. Yahoo! fournit un moyen pour les webmasters de soumettre les URL, de déterminer combien de pages sont dans l'annuaire de Yahoo! index et la liste de lien.

Etre indexé:

Les moteurs de recherche leaders, Google, Yahoo! et Microsoft, utilisaent des robots d'exploration (crawlers) pour trouver des pages à leurs résultats de recherche algorithmiques. Les pages qui sont liées depuis des pages indexéesen autres moteurs de recherche de ne doivent pas être soumis, car ils sont trouvées automatiquement. Certains moteurs de recherche, notamment Yahoo!, proposent un service payé de soumission qui garantissant l'exploration, soit contre un ensemble de frais ou le PPC (Pay Per Click) coût par clic. Ces programmes généralement garantissent d'inclusion dans la base de données, mais ça ne constitue pas une garantie spécifique dans le classement des résultats de recherche. Le programme d'inclusion payante de Yahoo a suscité des critiques de la part des annonceurs concurrents. Deux grands répertoires, le répertoire Yahoo et l'Open Directory Project nécessitent une soumission manuel et révision éditoriale par des humains. Google propose une sousimmion gratuite, la même chose pour Live.com de microsoft et la plupart des autres moteurs.

Les robots des Moteurs de recherche peuvent voir un certain nombre de facteurs différents lors de l'exploration d'un site. Pas chaque page est indexé par les moteurs de recherche. Distance de pages (Pages profondes à partir du répertoire racine d'un site) peut également être un facteur ou non de pages explorées.

Preventir l'indexation

Pour éviter tout contenu dans l'index de recherche, les webmasters peuvent donner des instruction aux robots indexeurs de ne pas explorer certains fichiers ou répertoires à travers la norme fichier robots.txt dans le répertoire racine du domaine. En outre, une page peut être expressément exclus d'un moteur de recherche de la base de données en utilisant une balise META propres aux robots. Quand un moteur de recherche, visite un site, le fichier robots.txt situé dans le répertoire racine est le premier fichier exploré. Le fichier robots.txt est ensuite analysé, et informe le robot des pages qui ne doivent pas être explorées. Comme un moteur de recherche peut garder une copie en cache de ce fichier, il peut à l'occasion explorer des pages qu'un webmaster ne souhaite pas qu'elles soient explorées. Les pages généralement empêchées d'être explorées sont les pages de login, de connexion comprennent des pages spécifiques tels que paniers d'achat et d'utilisation des contenus tels que les résultats de recherche internes. En Mars 2007, Google a mis en garde les webmasters qu'ils doivent prévenir l'indexation des résultats de recherche interne parce que ces pages sont considérées comme la recherche du spam.

White hat versus black hat

Les techniques SEO sont classés par certains en deux grandes catégories: les techniques que les moteurs de recherche recommandent dans le cadre d'une bonne conception et les techniques que les moteurs de recherche ne sont pas d'accord et tentent de minimiser l'effet de, dénommé "spamdexing". Les commentateurs de l'Industrie ont classé ces méthodes, ainsi que les praticiens qui les emploient, white hat SEO, or black hat SEO. Les premiers ont tendance à produire des résultats qui durent longtemps, alors que les seconds attendent à ce que leurs sites oeuvent éventuellement être interdit, soit temporairement ou de façon permanente une fois que les moteurs de recherche découvrent ce qu'ils font.

Une technique de SEO est considéré white hat si elle est conforme aux moteurs de recherche "lignes directrices" et n'implique pas la tromperie. Comme ces Guide lines ne sont pas écrites comme une série de règles ou de commandements, c'est une distinction importante à noter. White hat SEO n'est pas seulement de suivre des directives, mais c'est de veiller à ce que le contenu qu'un moteur de recherche indexe et classe est ensuite le même contenu qu'un utilisateur verra.

Le Conseil White hat est généralement résumé à ce que la création de contenu soit pour les utilisateurs, pas pour les moteurs de recherche, puis faire d'une manière que le contenu soit facilement accessible par les robots, plutôt que d'essayer de tromper l'algorithme de sa destination. White hat SEO dans beaucoup de sens similaire au développement Web qui promet l'accessibilité, Bien que les deux ne sont pas identiques.

Black hat SEO tentate d'améliorer le classement par des façons qui refusées par les moteurs de recherche, ou qui impliquent la tromperie. Les techniques Black hat utilisent texte qui est caché, soit sous forme de texte de couleur similaire à l'arrière-plan, dans un div invisible, ou placé hors écran. Une autre méthode: présenter aux moteurs une page différente de celle demandée par un visiteur humain, une technique connue sous le nom de cloaking.

Les moteurs de recherche peuvent pénaliser les sites qu'ils découvrent utilsateurs des méthodesdes black hat, soit en réduisant leur classement ou d'éliminer leurs listes de leurs bases de données définitivement. Ces sanctions peuvent être appliquées automatiquement, soit par les moteurs de recherche des algorithmes, ou par un examen manuel du site.

Un exemple fameux : L'enlèvement par Google en Février 2006 de (BMW Allemagne) et de (Ricoh Allemagne) pour l'utilisation de pratiques trompeuses. Les deux sociétés, toutefois, rapidement présentèrent des excuses, fixèrent les pages offensantes, et ont été restaurés à la liste Google.

Dans le cadre d'une stratégie de marketing

Eye Tracking études ont montré que les chercheurs scannes une page de résultats de recherche de haut en bas et de gauche à droite (pour les langues s'écrivant de gauche à droite), à la recherche d'un résultat pertinent. Le Placement à ou près du haut du classement donc augmente le nombre de chercheurs qui visitront un site. Cependant, la plupart des referrents aux moteurs de recherche ne garantissent pas plus de ventes. SEO n'est pas nécessairement une stratégie appropriée pour chaque site Web, Internet et d'autres stratégies de marketing peuvent être beaucoup plus efficace, selon objectifs de l'opérateur du site. Le succès d'une campagne de marketing Internet peut apporter du trafic organique (organique ce sont les résultats naturelles, pas les liens sponsorisés) à des pages Web, mais aussi peut impliquer l'utilisation de la publicité payante sur les moteurs de recherche et d'autres pages, la construction de haute qualité de pages Web à s'engager et à persuader, le traitement des questions techniques que pour maintenir exploration et l'indexation de ces sites via les moteurs de recherche , la mise en place des programmes d'analyse pour permettre aux propriétaires de sites de mesurer leur succès, et l'amélioration du taux de conversion d'un site.

SEO peut générer des profits indirectement. Toutefois, les moteurs de recherche ne sont pas rémunérés pour le trafic par recherche organique, leurs algorithmes changement, et il n'existe pas de garanties de la poursuite des renvois. En raison de ce manque de garanties, une entreprise qui dépend fortement du trafic des moteurs de recherche subit des pertes importantes si les moteurs de recherche arrêtent l'envoi de visiteurs.

Les marché internationaux

Les parts de marché des moteurs de recherchede varient de marché en marché, comme le fait la concurrence. En 2003, un expert a déclaré que Google représente environ 75% de toutes les recherches. Sur les marchés hors États-Unis, la part de Google est souvent plus grande, et Google reste le principal moteur de recherche du monde entier à partir de 2007. À partir de 2006 , Google a tenu environ 40% du marché aux États-Unis, mais Google a un 85-90% de part de marché en Allemagne. Bien qu'il y ait eu des centaines d'entreprises SEO aux États-Unis à ce moment-là, il n'y avait que cinq en Allemagne.

En Russie, la situation est inversée. Le Moteur de recherche local Yandex contrôle 50% des recettes publicitaires payants, alors que Google a moins de 9%. En Chine, Baidu continue à dominer la plus grande part de marché, mais Google a pris de l'action de 2007.

Le succès de la recherche d'optimisation pour les marchés internationaux peut exiger la traduction professionnelle de pages Web, l'enregistrement d'un nom de domaine avec un domaine de premier niveau dans le marché cible, et hébergement de sites Web qui fournit une adresse IP locale. Sinon, les éléments fondamentaux de l'optimisation de la recherche sont essentiellement les mêmes, quelle que soit la langue.

Services SEO professionnels en Algérie: moins cher et efficace, parmi les sites dont l'agence web & IT a pris en charge la tâche de référencement, SEO, positionnement, rapports mensuels pour un large choix de mots clés... autosdz.com, engindz.com, epctrade.com, djemla.com, praventa.com ce dernier est (en espagnol)...etc

Venez visiter ces liesn pour davantage de détails:
webitech.net/seo_consulting.php
webitech.net/submission.php

1 commentaire:

AchItech a dit…

http://virtual-itech.blogspot.com