mardi 29 juillet 2008

Sites Web statiques vs dynamiques, exemple de sites en Algérie


Sites statiques

Offre de conception de sites Statiques

une page Web statique est une page Web qui comprend toujours les mêmes informations en réponse à toutes les requêtes de tous les utilisateurs. Contraste avec la page Web dynamique.

Elle affiche les mêmes informations pour tous les utilisateurs, de tous les contextes, en fournissant l'hypertexte classique, où la navigation se fait par des documents "statique".

Avantages:
  • Rapide et facile à mettre en place, même par quelqu'un qui ne possède pas beaucoup d'expérience (par un éditeur Web parcexemple: FrontPage, Dreamweaver...)
  • Idéal pour démontrer comment un site sera ou pour juste une présence sur le Web
  • Cache convivial, une copie peut être démontré à de nombreuses personnes.
  • Ne nécessite pas de ressources particulières (langages de scripts dynamiques, fonction mail...), un serveur ordinaire fait l'affaire
  • Un coût réduit de conception et hébergement
  • Adéquat pour un site personnel, un site vitrine d'une petite compagnie pour montrer des infos ou produits à changement peu fréquent.
Inconvénients:
  • Difficile à maintenir quand un site est de grande taille.
  • Difficile de garder la cohérence à jour
  • Offre peu de personnalisation aux visiteur (tous devrait être du côté client).
  • Une mise à jour stagnée (difficile à la suivre si on a besoin plus fréqumment)
  • Peu pratique pour un utilisateur (s'il veut envoyer des commentaires, messages y a pas de fomulaire)

vue technique:

Le code HTML ou TXT la page est stocké dans le système de fichiers le serveur Web et est distribué (dans un protocole HTTP par exemple) directement, comme un transfert de fichiers.

Nécessite d'intervention de professionnels:

De point de vue économique, réaliser son site Web est une bonne initiative pour apprendre la conception, néanmoins, pour la réussite de son site au business ou sur le Web, une intervention de la part de professionnels s'avère primordiale, surtout si l'on sache que contrairement à l'apparence simple d'une page Web, elle nécessite un nombre de connaissances variées que sont pas généralement réunies chez la même personne (graphisme, optimisation des titres, description, mots clés, valeurs Alt images de pages, taille étudiée au chargement du navigateur, édition de textes en considérant la densité de mots clés...) .

L'agence Web & IT assure non seulement la conception et la publication, mais aussi la mise à jour, la maintenance et support tout au long de la durée du contrat

Offre de conception de sites Statiques

Sites dynamiques:

Offre de conception sites dynamiques

De nombreux sites de la dernière décennie sont statiques, mais de plus en plus de gens se rendent compte des avantages d'avoir un site dynamique. De sites Web dynamiques peuvent tirer le meilleur parti de votre site et soit l'utiliser comme un outil ou de créer une expérience professionnel et intéressante pour vos visiteurs.

Ces sites contiennent des pages qui sont souvent créés à l'aide de langages côté-serveur telles que PHP, Perl, ASP ou ASP.NET, JSP, et dans d'autres langues. Ces langages utilisent généralement la Common Gateway Interface (CGI) pour produire des pages Web dynamiques. Ces types de pages peuvent également utiliser, à côté client, le premier type (DHTML, etc) . mais la seule utilisation du DHTML (Dynamic HTML) sans un langage dynamique ne rend pas un document Web dynamique.

Avantages:
  • Un site beaucoup plus fonctionnel (réception de données, commentaires, messages, upload de fichiers...par l'utilisateur vers le serveur distant ou insertion dans la base de données. Ainsi qu'unnombrable d'autres application, en résumé on peu upmlémenter ce qu'on veux de modules complémentaires (impression instantanée de facture selon nos commandes, suivie de commande, payement en ligne...)
  • Mise à jour beaucoup plus facile par l'administrateur ou propriétaire du site grâce au CMS (Système de gestion de contenu). Venez voir nos CMS en DEMO
  • Nouveau contenu brings people back to the site and helps in the search engines
  • Peu fonctionner comme un système permettant les collègues de collaborer et travailler ensemble sur un même projet.
  • Conviviale, une meilleure expérience aux visiteurs qui peuvent personnaliser certaines rubriques/parties du site (apparence, ajout de contenu, avoir une zone memebre privée...)
  • Affichage dynamique de produits (du nouveau à l'ancien, insertion d'un moteur de recherche multi-critères)
  • Tous les sites réussis du monde sont dynamiques
  • La bonne solution pour un site volumineux nécessitant une mise à jour régulière
Inconvénients:
  • Plus lent / Plus cher à développé
  • Un hébergement un peu plus coûteux

Côté serveur

Le contenu dynamique côté-serveur est un peu plus compliqué.

1. Le navigateur envoie une requête HTTP.
2. Le serveur récupère l'a demandé script ou un programme.
3. Le serveur exécute le script ou programme qui se caractérise par une sortie page Web HTML . Le programme obtient généralement la contribution de la chaîne de requête ou dans l'entrée standard mai qui ont été obtenus à partir présenté un formulaire Web.
4. Le serveur envoie la sortie HTML au client le navigateur.

Caractéristiques communes:

Un site, soit statique ou dynamique doit répondre à certains critères, Web & IT assure son respect, Voir les qualités de nos sites

samedi 5 juillet 2008

SEO: Optimisation pour moteurs de recherche / Search engine optimizaion


SEO de l'anglais américain (Search engine optimization) est le procès d'augmenter le volume et la qualité du trafic vers un site Web depuis les moteurs de recherche via des résultats de recherche "naturels" ("organiques" ou "algorithmiques") pour des mots clés ciblés Habituellement, plus tôt un site est présenté dans les résultats de recherche ou plus haut "classé", plus les chercheurs se rendront sur le site. SEO peut également cibler différents types de recherche, y compris recherche d'images, recherche locale, et de l'industrie des moteurs de recherche verticaux. SEO peut être abordé de plusieurs façons, mais la tendance est basée sur la performance SEO.

Par expérience, nous avons constaté que PR (Page Rank) n'est pas absolu, c'est à dire certains sites avec PR 3 sommes mieux positionés que d'autres ayant PR 4 ou 5, celà est dû à des facteurs: l'age du nom de domaine, celà veut dire qu'un site avec PR 6 mais dont les mots clés sont mal-choisis ne mène pas à grand résultat. De plus que Google en tête des moteurs réactualise sa base de données, y compris PR chaque 3 mois. En conclusion: Le PR n'a pas toute cette importance dont on parle, exemple: http://www.engindz.com à PR3 et ils est positionné en première page google pour le mot clé engin zt il n'a que 6 mois d'age

Comme une stratégie pour augmenter la pertinence d'un site , SEO prend en considération comment les algorithmes de recherche fonctionnent et ce que les gens recherchent. Les efforts SEO efforts peuvent associer le codage d'un site, sa présentation et sa structure, ainsi que la détermination des problèmes qui pourraient empêcher l'indexation des moteurs de recherche et assurer la présence du site sur Internet. Une autre classe de techniques, connu sous le nom de black hat SEO or spamdexing, utilise des méthodes telles que les fermes de liens (link farms) et spam par mot-clé qui ont tendance à nuire au moteur de recherche l'expérience de l'utilisateur. Les moteurs de recherche chercheent les sites qui utilisent ces techniques et ça peut aller à les retirer de leurs indices.

L'initialisme "SEO" peut aussi se référer aux optimiseurs moteurs de recherche, les termes adoptés par n'importe industrie de consultants qui mène des projets d'optimisation pour le compte de clients, et par les employés qui effectuent les processus SEO aux foyers. Optimiseurs de moteurs de recherche offrent le SEO comme un processus autonome ou comme une partie d'une plus large campagne de marketing Internet. Parceque un SEO effectif nécessite parfois de modifier le code source HTML d'un site, les tactiques SEO peuvent être intégrées dans le développement et la conception d'un site web. Le terme "search engine friendly" est utilisé pour décrire la conception du site Web, des menus, des systèmes de gestion de contenu, des URL, des paniers et qui sont faciles à optimiser.

SEO comme une définition de service est d'abord apparue aux États-Unis grâce à l'organisation américaine des brevets et des marques sous le numéro de demande 77171330. Il a été approuvé pour publication et est défini comme étant "Services de marketing dans le domaine des ordinateurs dans la but de fournir des services de marketing pour le compte de tiers par la compilation des campagnes de publicité, services de promotion et de consultation pour les clients

Historique

Les Webmasters et fournisseurs de contenu ont commencé l'optimisation de sites pour les moteurs de recherche dans le milieu des années 1990, quand les premiers des moteurs de recherche étaient en train de cataloguer le Web. Au départ, tous ce qu'un webmaster avait besoin de faire, c'est soumettre une page Web ou, une URL, aux divers moteurs qui enverrait un Crawler afin "explorer" cette page, extraire des liens vers d'autres pages depuis le même domaine, et retourner des informations disponibles sur la page pour être indexés. Le processus implique un spider d'un moteur de recherche (robot qui parcours le web à la recherche de nouveaux sites/contenus ou mises à jours), il télécharge une page et le stocke sur le propre serveur du moteur de recherche , où un second programme, connu comme indexeur (robot indexeur) , des extrait les diverses informations concernant la page, tels que les mots que contient et où elles sont situés, ainsi que l'importance des mots spécifiques et tous les liens que la page contient, qui sont ensuite placés dans un programmae pour l'exploration à une date ultérieure.

Les propriétaires de sites ont commencé à reconnaître la valeur de leurs sites hautement classés et très visibles dans les résultats des moteurs de brecherche. ils reconnaissent également que plus le classement est élevé (sur 10) leur site le plus les gens cliquent sur le site. Selon les analystes de l'industrie, la première utilisation connue de l'expression d'optimisation de moteur de recherche "search engine optimization" en angalis a été un message spam (un spam est un message non sollicité) posté sur Usenet le 26 Juillet 1997. Rappelons-nous que le facteur Page Rank est relatif.

Les premières versions des algorithmes de recherche s'appuyaient sur les informations fournies par les webmaster comme la balise META tag mot-clé (keyword), ou les fichiers d'index dans les moteurs comme ALIWEB. Les Meta Tags fournissent un guide pour le contenu de chaque page. Mais l'utilisation de méta-données pour indexer les pages a été jugée moins fiable parce que les webmaster mettent des mots clés dans la balise META que ne sont pas vraiment pertinents sur le site. Les données inexactes, incomplètes et incohérentes dans les balises Meta causaient voir des pages classées dans des recherches non pertinentes. les fournisseurs de contenu Web manipulaient aussi un certain nombre d'attributs dans le source HTML d'une page dans une tentative de bien se classeer dans les moteurs de recherche.

En s'appuyant sur des facteurs exclusivement sous contrôle d'un webmaster, au début, les moteurs de recherche souffert de l'abus et de manipulation de classement. Pour de meilleurs résultats fournies aux utilisateurs, les moteurs de recherche ont dû s'adapter à assurer de montrer leurs résultats de recherche les plus pertinents, plutôt que les pages avec de nombreux mots-clés manipulées par les webmasters peu scrupuleux. Le fait que le succès et la popularité d'un moteur de recherche est déterminé par sa capacité à produire les résultats les plus pertinents à une recherche donnée permettant de ces résultats qu'ils sont faux transformerait les utilisateurs à trouver d'autres sources de recherche. Les moteurs de recherche ont répondu en développant les algorithmes de classement plus complexes, en tenant compte d'autres facteurs qui sont plus difficiles pour les webmasters à manipuler.

Étudiants à l'Université de Stanford, Larry Page et Sergey Brin développèrent "backrub", un moteur de recherche fondé sur un algorithme mathématique pour noter l'importance de pages Web. Le nombre calculé par l'algorithme, PageRank, est une fonction de la quantité et la force des liens entrants. Le PageRank estime de la probabilité qu'une page sera atteint par un internaute qui surfe au hasard sur le Web et suit les liens d'une page à une autre. En effet, cela signifie que certains liens sont plus forts que d'autres, comme une page PageRank plus élevé est plus susceptible d'être atteint par le surfeur aléatoire.

Page et Brin fonderent Google en 1998. Google a attiré un public fidèle parmi le nombre croissant d'utilisateurs d'Internet, qui aimait sa conception simple. Les facteurs Off-page tels que PageRank et analyse de liens hypertexte ont été examinés, ainsi que les facteurs on-page, afin de permettre à Google d'éviter le genre de manipulation dans les moteurs de recherche considérant uiniquement les facteurs on-page dans leurs classements. Bien que PageRank est plus difficile de jouer avec, les webmasters ont déjà développé des outils et systèmes de construction de liens (link building) pour influencer le moteur de recherche Inktomi. De nombreux sites axés sur l'échange, l'achat et la vente de liens, souvent sur une grande échelle. Certains de ces systèmes, ou un fermes de lien (link farms) , qui participent à la création de milliers de sites dans le seul but de spam de liens (lmink spamming).

En 2007, les moteurs de recherche ont intégré un large éventail de facteurs à ne pas divulguer dans leurs algorithmes de classement afin de réduire l'impact de liens de manipulation. Google dit qu'ilo classe les sites en utilisant plus de 200 signaux différents. Les trois principaux moteurs de recherche, Google, Yahoo et Microsoft Live Search, ne divulguent pas les algorithmes qu'ils utilisent pour classer les pages. Les praticiens de SEO peuvent également étudier les brevets détenus par divers moteurs de recherche pour mieux comprendre les algorithmes.

Les Webmasters et les moteurs de recherche:

En 1997, les moteurs de recherche reconassaient que les webmasters faisaeint des efforts à classer, et que certains webmasters étaient même en train de manipuler leur classement dans les résultats de recherche par pages avec du spam ou sans mots clés pertinents. Les premiers moteurs de recherche, comme Infoseek, ont ajusté leurs algorithmes dans un effort à prévenir les webmasters de la manipulation de classement.

En raison de la forte valeur commerciale des résultats de recherche ciblée, il y a un potentiel de relation publicitaire entre les moteurs de recherche et SEO. En 2005, une conférence annuelle, AIRweb, Adversarial Information Retrieval on the Web, a été créée afin de discuter et de réduire au minimum les effets néfastes de l'agressivité des fournisseurs de contenu internet.

Les compagnies SEO qui emploient des techniques trop agressives peuvent causer à leurs clients une interediction des sites Web dnas les résultats de recherche. En 2005, le Wall Street Journal a reporté le profil d'une entreprise, Traffic Power, qui aurait utilisé des techniques à hauts risques à son propre site et à ses clients. Google a confirmé par la suite qu' il a banit en effet Traffic Power certains de ses clients.

Certains moteurs de recherche ont également tendu la main à l'industrie SEO, et sont souvent les commanditaires et les clients aux conférences SEO, discussions et de séminaires. En fait, avec l'avènement de l'inclusion payée, certains moteurs de recherche ont maintenant un intérêt à la seinete de l'optimisation. Les principaux moteurs de recherche fournissent des informations et des directives pour aider l'optimisation de site: Des programmes pour aider les webmasters à savoir si Google a eu des problèmes d'indexation de son site Web et fournir également des données sur le trafic de Google sur le site. Yahoo! fournit un moyen pour les webmasters de soumettre les URL, de déterminer combien de pages sont dans l'annuaire de Yahoo! index et la liste de lien.

Etre indexé:

Les moteurs de recherche leaders, Google, Yahoo! et Microsoft, utilisaent des robots d'exploration (crawlers) pour trouver des pages à leurs résultats de recherche algorithmiques. Les pages qui sont liées depuis des pages indexéesen autres moteurs de recherche de ne doivent pas être soumis, car ils sont trouvées automatiquement. Certains moteurs de recherche, notamment Yahoo!, proposent un service payé de soumission qui garantissant l'exploration, soit contre un ensemble de frais ou le PPC (Pay Per Click) coût par clic. Ces programmes généralement garantissent d'inclusion dans la base de données, mais ça ne constitue pas une garantie spécifique dans le classement des résultats de recherche. Le programme d'inclusion payante de Yahoo a suscité des critiques de la part des annonceurs concurrents. Deux grands répertoires, le répertoire Yahoo et l'Open Directory Project nécessitent une soumission manuel et révision éditoriale par des humains. Google propose une sousimmion gratuite, la même chose pour Live.com de microsoft et la plupart des autres moteurs.

Les robots des Moteurs de recherche peuvent voir un certain nombre de facteurs différents lors de l'exploration d'un site. Pas chaque page est indexé par les moteurs de recherche. Distance de pages (Pages profondes à partir du répertoire racine d'un site) peut également être un facteur ou non de pages explorées.

Preventir l'indexation

Pour éviter tout contenu dans l'index de recherche, les webmasters peuvent donner des instruction aux robots indexeurs de ne pas explorer certains fichiers ou répertoires à travers la norme fichier robots.txt dans le répertoire racine du domaine. En outre, une page peut être expressément exclus d'un moteur de recherche de la base de données en utilisant une balise META propres aux robots. Quand un moteur de recherche, visite un site, le fichier robots.txt situé dans le répertoire racine est le premier fichier exploré. Le fichier robots.txt est ensuite analysé, et informe le robot des pages qui ne doivent pas être explorées. Comme un moteur de recherche peut garder une copie en cache de ce fichier, il peut à l'occasion explorer des pages qu'un webmaster ne souhaite pas qu'elles soient explorées. Les pages généralement empêchées d'être explorées sont les pages de login, de connexion comprennent des pages spécifiques tels que paniers d'achat et d'utilisation des contenus tels que les résultats de recherche internes. En Mars 2007, Google a mis en garde les webmasters qu'ils doivent prévenir l'indexation des résultats de recherche interne parce que ces pages sont considérées comme la recherche du spam.

White hat versus black hat

Les techniques SEO sont classés par certains en deux grandes catégories: les techniques que les moteurs de recherche recommandent dans le cadre d'une bonne conception et les techniques que les moteurs de recherche ne sont pas d'accord et tentent de minimiser l'effet de, dénommé "spamdexing". Les commentateurs de l'Industrie ont classé ces méthodes, ainsi que les praticiens qui les emploient, white hat SEO, or black hat SEO. Les premiers ont tendance à produire des résultats qui durent longtemps, alors que les seconds attendent à ce que leurs sites oeuvent éventuellement être interdit, soit temporairement ou de façon permanente une fois que les moteurs de recherche découvrent ce qu'ils font.

Une technique de SEO est considéré white hat si elle est conforme aux moteurs de recherche "lignes directrices" et n'implique pas la tromperie. Comme ces Guide lines ne sont pas écrites comme une série de règles ou de commandements, c'est une distinction importante à noter. White hat SEO n'est pas seulement de suivre des directives, mais c'est de veiller à ce que le contenu qu'un moteur de recherche indexe et classe est ensuite le même contenu qu'un utilisateur verra.

Le Conseil White hat est généralement résumé à ce que la création de contenu soit pour les utilisateurs, pas pour les moteurs de recherche, puis faire d'une manière que le contenu soit facilement accessible par les robots, plutôt que d'essayer de tromper l'algorithme de sa destination. White hat SEO dans beaucoup de sens similaire au développement Web qui promet l'accessibilité, Bien que les deux ne sont pas identiques.

Black hat SEO tentate d'améliorer le classement par des façons qui refusées par les moteurs de recherche, ou qui impliquent la tromperie. Les techniques Black hat utilisent texte qui est caché, soit sous forme de texte de couleur similaire à l'arrière-plan, dans un div invisible, ou placé hors écran. Une autre méthode: présenter aux moteurs une page différente de celle demandée par un visiteur humain, une technique connue sous le nom de cloaking.

Les moteurs de recherche peuvent pénaliser les sites qu'ils découvrent utilsateurs des méthodesdes black hat, soit en réduisant leur classement ou d'éliminer leurs listes de leurs bases de données définitivement. Ces sanctions peuvent être appliquées automatiquement, soit par les moteurs de recherche des algorithmes, ou par un examen manuel du site.

Un exemple fameux : L'enlèvement par Google en Février 2006 de (BMW Allemagne) et de (Ricoh Allemagne) pour l'utilisation de pratiques trompeuses. Les deux sociétés, toutefois, rapidement présentèrent des excuses, fixèrent les pages offensantes, et ont été restaurés à la liste Google.

Dans le cadre d'une stratégie de marketing

Eye Tracking études ont montré que les chercheurs scannes une page de résultats de recherche de haut en bas et de gauche à droite (pour les langues s'écrivant de gauche à droite), à la recherche d'un résultat pertinent. Le Placement à ou près du haut du classement donc augmente le nombre de chercheurs qui visitront un site. Cependant, la plupart des referrents aux moteurs de recherche ne garantissent pas plus de ventes. SEO n'est pas nécessairement une stratégie appropriée pour chaque site Web, Internet et d'autres stratégies de marketing peuvent être beaucoup plus efficace, selon objectifs de l'opérateur du site. Le succès d'une campagne de marketing Internet peut apporter du trafic organique (organique ce sont les résultats naturelles, pas les liens sponsorisés) à des pages Web, mais aussi peut impliquer l'utilisation de la publicité payante sur les moteurs de recherche et d'autres pages, la construction de haute qualité de pages Web à s'engager et à persuader, le traitement des questions techniques que pour maintenir exploration et l'indexation de ces sites via les moteurs de recherche , la mise en place des programmes d'analyse pour permettre aux propriétaires de sites de mesurer leur succès, et l'amélioration du taux de conversion d'un site.

SEO peut générer des profits indirectement. Toutefois, les moteurs de recherche ne sont pas rémunérés pour le trafic par recherche organique, leurs algorithmes changement, et il n'existe pas de garanties de la poursuite des renvois. En raison de ce manque de garanties, une entreprise qui dépend fortement du trafic des moteurs de recherche subit des pertes importantes si les moteurs de recherche arrêtent l'envoi de visiteurs.

Les marché internationaux

Les parts de marché des moteurs de recherchede varient de marché en marché, comme le fait la concurrence. En 2003, un expert a déclaré que Google représente environ 75% de toutes les recherches. Sur les marchés hors États-Unis, la part de Google est souvent plus grande, et Google reste le principal moteur de recherche du monde entier à partir de 2007. À partir de 2006 , Google a tenu environ 40% du marché aux États-Unis, mais Google a un 85-90% de part de marché en Allemagne. Bien qu'il y ait eu des centaines d'entreprises SEO aux États-Unis à ce moment-là, il n'y avait que cinq en Allemagne.

En Russie, la situation est inversée. Le Moteur de recherche local Yandex contrôle 50% des recettes publicitaires payants, alors que Google a moins de 9%. En Chine, Baidu continue à dominer la plus grande part de marché, mais Google a pris de l'action de 2007.

Le succès de la recherche d'optimisation pour les marchés internationaux peut exiger la traduction professionnelle de pages Web, l'enregistrement d'un nom de domaine avec un domaine de premier niveau dans le marché cible, et hébergement de sites Web qui fournit une adresse IP locale. Sinon, les éléments fondamentaux de l'optimisation de la recherche sont essentiellement les mêmes, quelle que soit la langue.

Services SEO professionnels en Algérie: moins cher et efficace, parmi les sites dont l'agence web & IT a pris en charge la tâche de référencement, SEO, positionnement, rapports mensuels pour un large choix de mots clés... autosdz.com, engindz.com, epctrade.com, djemla.com, praventa.com ce dernier est (en espagnol)...etc

Venez visiter ces liesn pour davantage de détails:
webitech.net/seo_consulting.php
webitech.net/submission.php

Le référencement de sites Internet


Le référencement est l'action de référencer, c'est-à-dire mentionner quelque chose ou y faire référence.

Traditionnellement, on parle de référencement lors de constitution ou mise à jour de catalogue produits, dans la grande distribution principalement.

Sur internet, faire un lien d'une page A vers une ressource B, c'est y faire référence et donc référencer la ressource B depuis la page A. Par vulgarisation, l'action générique d'inscription dans les moteurs de recherche s'est vue appelée référencement. Le référencement de sites web s'axe aujourd'hui autour des outils de recherche, plus particulièrement des moteurs et des annuaires de recherche, alors que cette activité est en réalité comparable à du netlinking.

Le référencement de sites web s'articule donc par la mise en place des deux stratégies distinctes et complémentaires : le référencement naturel et les liens sponsorisés. La première stratégie passe par une phase d'indexation (= prise en compte) du site par les outils de recherche, puis une phase de positionnement de ces sites sur les résultats naturels des outils de recherche lors d'une recherche faite par les internautes. La seconde s'apparente à de la gestion de budgets de publicité.

Vous trouverez ci-dessous la définition du concept de référencement naturel, stratégie de communication qui s'articule autour de trois axes : le contenu, son format de publication et sa popularité/notoriété sur le web.

Référencement naturel

Le référencement est l'ensemble des techniques qui permettent d'inscrire un site dans les moteurs de recherche ou dans les annuaires. Le référencement est souvent associé avec le positionnement qui, quant à lui, représente l'art d'améliorer la place du site dans les réponses fournies par les moteurs de recherche.

Il est souvent au cœur des actions faites dans le cadre d'une opération de Marketing Internet ou de Search Marketing, car la plus économique.

Enjeux

Le référencement est une des principales sources de création de trafic sur un site aujourd'hui. En effet, il permet aux internautes d'accéder à un site sans connaître son adresse. L'afflux principal provient des moteurs de recherche, mais nombre de visiteurs passent également par des annuaires. On trouve également de plus en plus de sites de bookmarks (marque pages), qui permettent aux internautes de conserver les adresses de leurs sites préférés, commerciaux ou non.

Techniques

De façon chronologique :

Lors de la conception du site web

  • Analyse de la cible
  • Choix des mots-clés, non seulement pour les métadonnées, mais aussi pour les intégrer lors de la rédaction des contenus des pages web, avec l'attribut keyword ou d'autres attributs (l'attribut "keyword" est beaucoup moins utilisé maintenant).
  • Optimisation des liens internes du site (via l'intégration d'un plan du site par exemple)
  • Mise en valeur du contenu et veiller à son accessibilité.

Lors de la soumission dans les outils de recherche et les annuaires

Équivalent du mot indexation.

Donner des informations détaillées aux moteurs de recherche et annuaires pour qu'ils indexent la page ou le site qui intéresse le demandeur.

Ces informations peuvent varier d'un outil à l'autre, certaines indexations sont gratuites, d'autres payantes, tandis que certains outils demanderont des liens en retour (liens réciproques / liens mutuels).

Positionnement [modifier]

Icône de détail Article détaillé : Optimisation pour les moteurs de recherche.

Techniques visant à se positionner dans les premiers résultats, généralement les deux premières pages, lors de recherches sur certains mots-clés :

  • Créer des contenus en totale adéquation avec une qualité qui respecte les chartes des moteurs de recherches.
  • Créer des liens externes sur des sites traitant du sujet en incluant le mot-clé dans le lien (backlink).

Techniques interdites (par exemple par Google)

  • Afficher un contenu différent aux moteurs de recherches et leurs bot à l'aide d'un script en javascript (technique appelée cloaking), avec une page masquée.

(Technique qui est réprimandée par les moteurs de recherches. Le site sera placé sur une liste noire s'il est repéré, comme l'affaire BMW en Allemagne).

  • Textes masqués ou liens
  • Mots clés répétés
  • Inadéquation entre le contenu de la page et sa description
  • Redirection trompeuse
  • Site ou page répété(e) (duplication du contenu)
  • Page satellite (doorway très prisé en France)

Suivi de positionnement et d'indexation

  • Suivi d'indexation pour vérifier que le moteur connait toujours la page qui nous intéresse. Il n'est pratiquement plus utile de soumettre des sites aux moteurs et encore moins de les soumettre s'ils sont déjà indexés.
  • Suivi de positionnement pour optimiser par la suite par rapport aux mots-clés qui nous intéressent.
  • Le suivi d'indexation dans les annuaires thématiques et généralistes doit être réalisé fréquemment afin de conserver la popularité acquise, voire de l'optimiser en augmentant le nombre et la qualité des liens en retour (backlink) vers le site à positionner.

Concours de référencement

Les concours de référencement permettent aux référenceurs professionnels mais également aux amateurs de mesurer leurs acquis en terme de référencement. Le but de ces concours est d'arriver premier dans les moteurs de recherche principaux, comme Google, MSN, Yahoo, Ask... avec un mot clef donné, ces mots clefs sont généralement choisis avec précaution afin de ne pas interférer avec de véritables mots clefs utilisés dans d'autres contextes plus "sérieux". Exemples de mots clefs de précédents concours : mangeur de cigogne, sorcier glouton, chocoku, tiger l'osmose, cobraoupouaout, zurtouij, racheumeuneu, zobibi...

C'est un bon moyen pour les référenceurs de s'améliorer, de se mesurer aux autres et ainsi de proposer un service de plus en plus pointu aux clients désireux d'une bonne position dans les moteurs de recherche.

Ces concours mettent en exergue les écarts existants entre le comportement attendu d'un moteur de recherche sur l'indexation d'un mot et le comportement réel de ce même moteur.

Politique de liens (Link building)

Tous les liens n'ont pas la même valeur aux yeux des moteurs de recherche (popularité de liens). Nombre de webmasters utilisent les échanges de liens afin de gagner des visiteurs et du PageRank. Par ailleurs, Google a également instauré un BlockRank dans sa formule pour bloquer les sites qui ne respectent pas les directives. L'échange de liens permet, outre l'amélioration du positionnement dans les moteurs, d'augmenter, dans une certaine mesure, la popularité et le nombre de visiteurs directement de site à site.

Le principe est donc simple, il suffit qu'un site A accèpte de mettre sur une de ces pages le lien d'un partenaires et ce dernier fera de même. A grande échelle, on peut créer un réseau de sites amis et propulser son site avec une augmentation de sa fréquentation significative.

Naturellement, le lien ne fait pas tout. Si au yeux des robots d'indexation, il y a une prise en compte certaine, l'utilisateur n'ira sur votre site que parce qu'il pense y trouver ce qu'il cherche ou ce qui l'intéresse. Réservez donc tous vos efforts à créer du contenu pertinent, sinon le netlink vous desservira, car il dirigera des gens qui rebondiront depuis votre site vers un autre !

Cette page est copie dans certaines parties depuis des articles: http://fr.wikipedia.org/wiki/R%C3%A9f%C3%A9rencement de Wikipédia, qui a pu être modifié depuis. Par dérogation avec le reste de ce blog, le contenu de cet article est accessible sous la licence GFDL