21 November 2024


formation avancée au référencement

Archive for the ‘Black Hat SEO’ Category

PageRank Sculpting en Flash

Mercredi, février 24th, 2010

Le PageRank sculpting a été longtemps une source de débat, et a porté plusieurs noms, et depuis la modification de l’attribut rel=”nofollow”, les SEO ont cherché quelle était la meilleure solution pour le faire.
Lors de la conférence SEO Campus qui s’est tenue le week-end dernier, le sujet a été abordé. On y recommandait de faire comme avant l’arrivée de l’attribut rel=”nofollow”, c’est à dire de construire ses pages en incluant les liens les plus importants aux yeux du webmaster afin que ces les urls de destination profitent du jus de la page en cours.
Le message en gros, c’est de ne pas faire de PR sculpting, mais plutôt du PR modeling… Alors qu’est-ce que cela nous apprend au juste ? Pas grand chose…

PageRank Sculpting en Flash

Moi j’aime le PageRank sculpting !

Oui mais moi, j’aime le PR sculpting ! et je trouve que cela fonctionne plutôt pas mal. Si cela ne fonctionnait pas, Matt Cutts ne l’aurait certainement pas modifié !La question est pourquoi continuer d’en faire ?
Je prends un exemple simple : vous avez un site avec de nombreux liens d’affiliation… Allez-vous appliquer à chacun un attribut nofollow qui aura pour effet de limiter le jus transmis à vos pages internes ? Ma réponse est non !
Les liens d’affiliation, ce n’est pas fait pour les bots, mais pour les visiteurs (je n’ai jamais vu Googlebot générer un lead pour ma part). C’est donc bien là qu’il faut agir. Le fait que l’on rentabilise un site n’a rien à voir avec sa qualité et je ne vois pas pourquoi son maillage interne devrait en pâtir…
Donc je reste un partisan du PR sculpting dans ce genre de cas…

Du nouveau dans les techniques de PR sculpting ?

Aujourd’hui, je vous propose une technique pas forcément nouvelle, mais bien efficace : le PR sculpting en Flash :D
On sait tous que Googlebot sait décompiler les fichiers SWF (animations Flash®), et lire le JavaScript (bien qu’en fait Googlebot ne fait rien de tout ça, il ne fait qu’aller chercher les informations, c’est l’algorithme qui fait le travail).
Mais il suffit de lui interdire l’accès à ces fichiers pour se sentir plus serein (joke).

Le principe est simple, mais réellement efficace… Je vous avais livré un code JS pour faire du PageRank sculpting il y a quelques temps, très utile dans de nombreux cas, et c’est ce code légèrement modifié que nous allons réutiliser.
Et là vous me dîtes “mais quel est le rapport entre Flash et JS ?”. C’est une excellente question ! L’intérêt de la technique que je vous présente est qu’il n’y a pas besoin d’être expert en développement ActionScript pour réussir son sculpting. Nous allons faire intéragir une animation Flash simpliste avec le document HTML conteneur. Ceci est possible grâce au package flash.external.
Ce package AS3 vous permet tout simplement de passer des fonctions JavaScript via Flash. Ces fonctions peuvent exister dans le fichier conteneur, ou tout simplement être définies dans le SWF lui-même. Vous avez donc maintenant bien compris le fonctionnement de la technique…
Maintenant que le concept est posé, passons à la pratique ;)

Un peu de code

  1. Vous n’avez pas besoin d’avoir le logiciel Flash® pour créer ces fichiers
  2. Créer ces fichiers pour un débutant n’est pas tout simple
  3. Je vous donne les sources dans l’article ;)

Le fichier ActionScript

Pour commencer, il vous faut un éditeur de texte ou un EDI de votre choix (Coda, Dreamweaver, Notepad++, Emacs etc…)
Ensuite, il va falloir créer un “package” qui va inclure les packages Flash et qui contiendra une class. Pour que le script fonctionne, nous allons devoir utiliser la class Sprite de manière à lancer automatiquement l’animation, mais nous n’aurons aucune utilisation avancée de cette class.
La class que nous allons créer ne contiendra qu’une seule fonction (le constructeur), qui se chargera de faire le travail.
Appelons ce fichier SculptPR.as

1
2
3
4
5
6
7
8
9
10
package{
	import flash.external.ExternalInterface;
	import flash.display.Sprite;
 
	public class SculptPR extends Sprite{
		function SculptPR():void{
			ExternalInterface.call("function(){var lnk = '', txt = '';var s = document.getElementsByTagName('span');for(i=0; i< s.length;i++){if(s[i].className.indexOf('afflink') != -1){lnk = document.createElement('a');lnk.href = s[i].title;txt = s[i].innerHTML;lnk.target = '_blank';lnk.innerHTML = txt;s[i].innerHTML = '';s[i].removeAttribute('title');s[i].appendChild(lnk);}}}", "");
		}
	}
}

Le fichier SWF

Mais là vous me dîtes : “oui, c’est bien joli un fichier .as, mais qu’est-ce que j’en fais ?”. Et bien pour l’utiliser, il nous faut le compiler. C’est ce que fait normalement le logiciel Flash®, mais nous avons une alternative gratuite proposée par Adobe® : le SDK de Flex (vous pouvez le télécharger si vous acceptez les conditions d’Adobe»).

Pour la compilation, je vous renvoie au très bon tutoriel du site du Zéro qui explique très clairement comment procéder.
Je me permets simplement de rappeler un point très important : le nom du fichier, le nom de la class et le nom du constructeur (la fonction) doivent porter le même nom.
La liste des packages de Flash est disponible sur le site d’Adobe® et le détail du package flash.external est consultable sur cette page.

Une fois votre fichier SWF compilé, vous pourrez le placer dans un fichier bloqué par robots.txt (c’est beau d’y croire encore :D ) et l’appeler dans votre page HTML, après le chargement de la page, par exemple avec un petit script JS comme celui-ci.

1
2
3
4
5
6
<script type="text/javascript">
window.onload=function(){
document.getElementById('flash').innerHTML = '<object type="application/x-shockwave-flash" data="SculptPR.swf" width="1" height="1" border="0"><param name="movie" value="SculptPR.swf" /><param name="wmode" value="transparent" /><param name="autoplay" value="true" /><param name="allowScriptAccess" value="always" /><p>Tout va bien, Googlebot, je fais un site pour les visiteurs !</p></object>';
}
</script>
<div id="flash"></div>

Enfin, il ne vous reste plus qu’à remplacer vos liens d’affiliation par le code suivant pour que la magie s’opère.

1
<span class="afflink" title="/mon-lien-affiliation">ancre ou bannière</span>

Ainsi donc, Googlebot ne verra que du texte et les internautes pourront générer les leads qui les intéressent ;)
Si vous souhaitez modifier le paramètre qui permet d’identifier les span à transformer en liens, il faut changer le nom de la classe CSS dans les span, sans oublier de l’indiquer également dans le fichier ActionScript ;) (ici, on a choisi “afflink”).
Enfin, il ne faut pas de retour à la ligne dans le code Javascript que l’on insère dans le fichier ActionScript, sinon, cela génère des erreurs et le fichier ne se compile pas en SWF.

Voilà une nouvelle technique sympathique, qui j’espère vous aidera à transmettre plus de jus dans vos pages internes ;)
De votre côté, utilisiez-vous déjà ce genre de techniques ? Lesquelles préférez-vous (mis à part le PR mouling et le PR touching :lol: ) ?

Comment poster des commentaires automatiquement

Mardi, février 16th, 2010

Pour mon premier billet de l’année 2010 (je sais, je n’écris pas beaucoup ces temps-ci), je vous présente une petite fonction qui vous permettra de poster des commentaires automatiquement.
La fonction est très simple, voire simpliste, mais permet de gagner beaucoup de temps lorsque l’on souhaite faire des commentaires en masse sur les blogs WordPress.

Spam commentaires WordPress

Quelques explications sur la soumission automatique de commentaires

Ce script s’applique aux blogs de la plateforme WordPress.
Ce système de blogging est très apprécié pour sa facilité d’utilisation et ses toujours plus nombreuses extensions (plugins) qui permettent à de nombreux webmasters plus ou moins novices d’obtenir les résultats qu’ils souhaitent sans avoir à toucher au code.

Voici une petite explication quant au fonctionnememnt du script. Pour faire simple, la publication d’un commentaire se fait par la soumission d’un formulaire utilisant la méthode POST.
Ce formulaire contient différents champs dont certains sont requis par défaut, ou selon le paramètrage du webmaster.
Le script permet de simuler la validation de ce formulaire, mais à distance. Ainsi, on envoie au script qui gère la publication des commentaires tous les champs dont il a besoin pour enregistrer une nouvelle discussion.
Pour ce faire, nous utilisons la bibliothèque CURL, pour une question de simplicité. On pourrait cependant tout à fait utiliser la fonction file_get_contents() assortie d’un contexte HTTP contenant les informations nécessaires à la soumission du formulaire.
Voici le code PHP de la fonction…

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
<?php
/**
 *  Poster automatiquement des commentaires sur les blogs WordPress
 *  @author  BlackMelvyn http://www.theblackmelvyn.com/
 *  @param  $blog_url  URL du blog à spammer (ex: http://www.thesplog.tld), sans trailing slash !
 *  @param  $post_id  id du billet qui va accueillir le commentaire
 *  @param  $author  nom de l'auteur du commentaire
 *  @param  $email  champ e-mail du commentaire
 *  @param  $site_url  URL vers votre site
 *  @param  $comment  Le commentaire sur le billet
 */
function postWPComment($blog_url, $post_id, $author, $email, $site_url, $comment){
  $timeout = 6;
  $cookie = '';
  $useragent = 'Mozilla 5.0';
  $url = $blog_url.'/wp-comments-post.php';
  $referer = $blog_url.'/?p='.$post_id;
  $postfields = array(
    'author' => $author,
    'email' => $email,
    'url' => $site_url,
    'comment' => stripslashes($comment),
    'comment_post_ID' => $post_id
  );
  $ch = curl_init($url);
  curl_setopt($ch, CURLOPT_POST, true);
  curl_setopt($ch, CURLOPT_POSTFIELDS, $postfields);
  curl_setopt ($ch, CURLOPT_TIMEOUT, $timeout);
  curl_setopt ($ch, CURLOPT_COOKIEJAR, $cookie);
  curl_setopt ($ch, CURLOPT_COOKIEFILE, $cookie);
  curl_setopt($ch, CURLOPT_USERAGENT, $useragent);
  curl_setopt($ch, CURLOPT_REFERER, $referer);
  curl_setopt($ch, CURLOPT_FOLLOWLOCATION, true);
  curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
  $result = curl_exec($ch);
  curl_close($ch);
  echo 'Commentaire posté : '.$post_id.' !<br />';
}
?>

Un peu d’éthique…

Un petit rappel pour les jeunes black hatters, le but de ce script n’est pas de pourrir les blogs des autres ! Soit vous avez un outil perso qui vous permet de gérer vos blogs favoris et de participer à la discussion, soit vous utilisez cette fonction pour vos autoblogs (cela permet de les viabiliser davantage), ou que sais-je… Mais je le rappelle, de tels outils ne sont pas à prendre à la légère, vous avez une responsabilité, sinon une conscience professionnelle ;)
Même si black hat ne rime pas directement avec éthique, ils vont de paire, automatiquement ;)

Faites bon usage de cette fonction qui n’est qu’une partie d’un outil bien plus puissant. Voici donc une première pierre, à vous de terminer l’édifice selon vos idées, vos moyens et votre créativité ! :)

Augmenter le trafic et la pertinence d’un autoblog

Mardi, décembre 1st, 2009

Beaucoup le savent et en profitent (pas forcément bien), les autoblogs sont une façon de créer des réseaux, des MFA, qui permettent de nombreuses choses par la suite. Mais le problème majeur qui se pose est souvent celui du trafic et/ou de la pertinence.
En effet, si un autoblog en version MFA peut générer quelques dollars par jour pour les meilleurs d’entre eux, il est tout de même fréquent de constater que certains dépassent difficilement le seuil des 100 VU / jour.

L’internaute au travail

Je ne livre pas ici de code, juste une idée et se lanceront ceux qui le souhaitent ;)
En réalité, le client final c’est l’internaute. Google et ses compères moteurs ne sont que des intermédiaires… donc nous allons procéder de la même manière que Google.
Je m’explique : l’action des internautes sur les résultats de recherche Google est traquée et analysée (taux de clic, taux de rebond etc…) ce qui permet au moteur d’affiner ses résultats. Donc les visiteurs travaillent pour Google sans s’en rendre compte. Et bien l’idée est de se servir de ce principe pour l’utiliser à notre avantage dans nos réseaux d’autoblogs.

Un titre évolutif

C’est sur les mots clefs qui permettent de trouver le site que le plugin agira. A chaque fois qu’un internaute arrive sur l’autoblog en question, le script récupère les mots clefs tapés dans la barre de recherche, puis les stock dans une base de données.
Cette opération ne doit jamais s’arrêter de manière à optimiser la balise title en continu.
Une fois ce léger travail accompli, il faut analyser les expressions clefs pour chacune des pages et les classer par ordre décroissant.
L’expression clef qui revient le plus souvent prendra la place de l’ancienne expression dans la balise title.

Si on récapitule:

  • un visiteur arrive sur une page de l’autoblog
  • on enregistre l’expression clef s’il vient d’un moteur de recherche
  • on analyse le nombre d’occurences
  • on remplace le titre de la page en question par l’expression la plus porteuse de trafic

En suivant ce schéma, la page se positionnera plus facilement sur ces expressions, sans que vous n’ayez besoin de mettre à jour vos titres manuellement, et surtout, sans avoir à faire un tracking statistique des visites de votre réseau d’autoblogs.

Cette technique est déjà utilisée par certains, avec plus ou moins de succès… Ce qui fera la différence, c’est la manière dont seront traitées les expressions clefs.

Et de votre côté, d’autres techniques pour améliorer le trafic et/ou la pertinence de vos autoblogs ?

Edit Mars 2010 : il existait en fait un plugin à la date où j’ai publié le billet : http://www.seoishard.com/seo-tool/poly+title, et @meushli en a codé un récemment disponible ici : http://wordpress.org/extend/plugins/seo-query/
Amusez-vous bien ;)

Black Hat, White Hat, la lutte finale ?

Mercredi, octobre 21st, 2009

Je viens de lire un message dans un des hubs de Viadéo (intitulé “Du référencement éthique”), de la part d’un des acteurs du webmarketing français, et j’avoue être très, mais alors très déçu…

Je pense que ce monsieur confond quelques points et surtout généralise énormément !

Black Hat - White Hat - La lutte finale ?

Quelques référenceurs obscures, nommés Black Hat, sont prêts à utiliser des techniques proscrites par les moteurs de recherche (comme par exemple l’inscription automatique à des milliers d’annuaires ou encore le spam démesuré..) dans le but de vous faire remonter dans les moteurs de recherche.[...] vous serez placés dans des “sandbox” puis “blacklisté”!

Première rigolade ! L’inéluctable blacklistage pour utilisation de techniques black hat :D C’est ce qu’on appelle une légende urbaine !
Et le spam démesuré… Le spam mesuré serait donc une technique white hat ?
En réalité, les probabilités de se faire shooter sont nettement moins importantes.

Bien heureusement un nouveau courant plus éthique apparaît, celui des White Hat du référencement. Ces derniers prennent en compte la déontologie de Google. Ils sont capables d’offrir des résultats de qualité sur le long terme et assurer la pérennité de votre site.

Seconde rigolade !
Les White Hat ne sont pas en guerre contre les Black Hat. Ce n’est pas une armée qui s’est érigée pour protéger les sites des gentils clients…
Leurs techniques ne sont pas forcément plus cleans que celles des Black Hat (spam report, paid link report etc…)

La limite en White Hat et Black Hat n’est pas si claire que ça, je pense que l’avis de certains référenceurs expérimentés et reconnus sur le marché confirmeront mes dires.

Black hat ne veut pas dire “sans éthique”. Il ne faut pas mettre tous les black hat dans le même panier, je vous invite à lire l’article de Laurent Bourrelly à ce sujet.

D’autre part, Black Hat ne veut pas dire systématiquement “SandBox” ou “Blacklist”, c’est faux. Je ne sais pas d’où vous tenez ces informations, mais dans mon cercle privé, les black hats n’ont pas eu de sites blacklistés, à part certains de leurs sites de test.

Ensuite, les offres de souscriptions automatiques à 10 ou 15 000 annuaires ne sont pas l’œuvre de black hat, mais plutôt des webmasters peu scrupuleux car en réalité, les inscriptions sont bien faites, mais les annuaires ne sont pas indexés ou font partie de réseau dénigrés des moteurs.

Si les white hat sont “capables d’offrir des résultats de qualité sur le long terme et assurer la pérennité de votre site“, ce n’est pas systématique, et nombre de black hat expérimentés le sont également, et souvent davantage.

Petit rappel: un SEO black hat doit tout d’abord maîtriser le référencement white hat. Il exploite ensuite les failles des algorithmes des moteurs de recherche sans éveiller les soupçons, en rendant les actions “naturelles” et permet de positionner durablement les sites internet dans les premières places des pages de résultats.

Enfin, Google ne serait pas ce qu’il est aujourd’hui sans les Black Hat ;) Mon avis est que Black Hat et éthiques ne sont pas à dissocier, et qu’un Black Hat DOIT avoir de l’éthique s’il conçoit son activité comme un métier, une expertise.

Ce post sur le hub de Viadeo ressemblait basiquement à un communiqué de presse de la société qui vendait un service de link building… Dommage de publier des âneries pareilles en jouant sur les peur des clients, ça me fait penser à certains politiciens…

Black Hattitude, Black Hattitude, trois fois Black Hattitude

Lundi, octobre 19th, 2009

On y arrive, c’est bientôt la fin du concours et de nombreux participants se sont donné du mal pour pouvoir accéder aux meilleures places du classement du concours de référencement Black Hat.

La Black Hattitude n’est pas un jeu de gamins

Black Hattitude ce n’est pas un concours tout simple…
On commence à s’y frotter avec une page ou même un domaine, et quelques BL spammy, et finalement, on se retrouve à créer des fermes de blogs bourrées de liens vers des sites de Black Hattitude tous plus optimisés les uns que les autres…

Pourquoi je parle de Black Hattitude aujourd’hui ?

Tout simplement pour faire un peu de contenu pertinent sur la blogosphère… On ne compte plus les pages qui n’ont pris aucune valeur à cause de leurs répétitions de Black Hattitude… Un black hat">véritable keyword stuffing sur des termes qui ne devraient pas être pris à la légère… ces mêmes termes qui font tourner les têtes en ce moment : Black Hattitude
En effet, il y a des scripts de vérification de liens gracieusement ajoutés aux lots pour les vainqueurs, provenant de ce site qui vend une application pour surveiller ses échanges de liens, seule alternative intéressante et fiable sur le marché.
C’est une occasion en or de tester gratuitement cet outil merveilleux qui aurait tant pu servir aux concurrents de la black hattitude

Pour les participants, seuls ceux qui auront la black hattitude, la vraie pourront prétendre à une place dans la sphère Black hat francophone… et ce ne sont pas ceux qui sont premiers aujourd’hui qui le seront le jour du classement dernier ;) Parole de BH !

Maintenant, au lieu de lire mon post, vous devriez tous être en train de travailler vos contenus et vos BL ! Au boulot :D !

Spam de goret

Black Hattitude : Aurez-vous la Black Hattitude ?

Mardi, septembre 1st, 2009

La Black Hattitude, vous connaissez peut-être ? Perso, je connais pas mal ;) Mais pour qu’il n’y ait pas de quiproquo, voici donc un peu plus de détail sur la Black Hattitude, nouvelle tendance de fond dans le SEO Black Hat francophone et surtout achèvement du projet d’un ami !

Black Hattitude

Forum Black Hat SEO : Black Hattitude

Les forums SEO existent depuis quelques temps déjà sur le web francophone (bien avant que je ne me mette au SEO pour être franc) et l’on en recense quelques uns plus ou moins enrichissants, plus ou moins ouverts et plus ou moins tendus.
Perso, j’ai fait mes choix depuis un certain temps déjà, et même si je continue de faire de la veille sur de nombreux forums, j’ai déjà choisi mes préférés
Lesquels ? Ceux où vous me voyez participer ;)

Black Hattitude : la naissance

Lors du lancement du forum Black Hattitude de Discodog, j’ai été l’un des premiers à m’inscrire… Pas à me présenter je vous l’accorde, car je viens seulement de la faire, mais ça c’est de la faute de Rudy :D
Maintenant, je vois qu’il y a tout le grattin du black hat français qui s’est inscrit (des membres de la Dark SEO Team, SEO BlackOut et quelques uns plus discrets) et qui rôde dans le forum, et ça fait bien plaisir car finalement, il n’y avait pas d’endroit pour faire cela sur le web francophone.

Black Hattitude en force

Pour lancer le forum, un concours a été mis en place et permet de remporter quelques lots bien sympas. La particularité de ce concours : TOUS LES COUPS SONT PERMIS :D
On devrait assister à un florilège de scènes de massacres à grands coups de negative SEO… Certains seront peut-être plus fins mais les concours sont toujours une bonne occasion de tester de nouvelles techniques et de se lancer dans des opérations commandos qu’on n’utiliserait pas habituellement !
Tous les détails sur le concours sont disponibles sur la page du concours Black Hattitude.

Longue vie donc à ce projet ambitieux quand on sait à quel point les infos en Black Hat sont peu divulguées, et bonne chance à tous pour le concours Black Hattitude !

Cookie Stuffing : la bête noire de l’affiliation

Mardi, juillet 28th, 2009

Certains connaissent déjà le terme, d’autres le découvriront, et surtout découvriront à quel point cette technique est une technique black hat de haut vol ;)

Cookie Stuffing : la méthode !

AVERTISSEMENT !

Cette technique vous est décrite ici dans un but pédagogique, afin d’inciter les annonceurs qui souhaiteraient se lancer dans l’affiliation, à utiliser des solutions de tracking très sécurisées ou passer par une ou plusieurs plateformes d’affiliation qui ont les outils et l’expérience nécessaires pour détecter la fraude.
Je ne peux que déconseiller l’utilisation cette technique qui, tôt ou tard, vous causera des problèmes d’ordre judiciaire si vous décidez de vous y frotter.

Qu’est-ce que le cookie stuffing ?

Le cookie stuffing est une technique utilisée pour accroître le nombre de ses commissions lors de la diffusion d’une campagne d’affiliation.
En effet, les plateformes d’affiliation et les annonceurs qui diffusent des affiliations en direct utilisent des cookies pour assurer le tracking de leurs campagnes et ainsi savoir à qui reverser la commission quand le visiteur accomplit l’action.

Comment se déroule le tracking ?

Lorsque vous diffusez une campagne sur votre site, vous utilisez un visuel et un lien fournis par l’annonceur. Ces éléments vous redirigent vers une page intermédiaire lorsque vous cliquez dessus. C’est lors du passage sur cette page que le cookie est généré et qu’il vous est assigné.
La durée de vie du cookie varie en fonction des campagnes et des paramétrages des annonceurs.

Une fois le cookie généré, vous êtes ensuite redirigé vers la page du produit (Landing Page). C’est quasiment transparent pour les visiteurs, mais c’est très important pour le webmaster car sans cookie, pas de commissions !

Les techniques de cookie stuffing

On distingue un certain nombre de techniques, plus ou moins détectables (à la fois par les webmasters, les visiteurs ou les plateformes / annonceurs).

  • Cookie stuffing par image
  • Image stuffing + htaccess
  • Iframe
  • Flash stuffing

Je le rappelle, ces techniques sont extrêmenent risquées et encore une fois, ne les utilisez pas ! Sachez simplement qu’elles existent et qu’il faut (en tant qu’annonceur) s’en protéger.

En quoi consiste le cookie stuffing ?

Votre site réalise un certain trafic, c’est bien… Mais tout webmaster aimerait avoir davantage de commissions… Alors comment faire ?
La réponse est simple, if faut remplir les bacs à cookies de visiteurs

  • de ses propres sites
  • des sites des autres webmasters

Pour que le jeu en vaille la chandelle, les sites doivent avoir un bon trafic.
C’est maintenant que le piège va se refermer… Avec l’utilisation des différentes techniques citées plus haut.
Voici un exemple simpliste.

Exemple de cookie stuffing

Je vous livre ici un code simpliste qui vous montrera comment fonctionne le cookie stuffing. N’utilisez pas cette technique sous peine de vous faire bannir de votre régie publicitaire sous huitaine, avec une convocation au tribunal. J’ajoute que vous ne toucherez pas non plus vos commissions…. Avouez que cela serait dommage !

Ici, on va créer un iframe dont la source sera l’url de tracking de la campagne. Inutile de préciser que c’est, avec la technique de l’image, la façon la moins discrète de faire du stuffing.

1
<iframe src="http://laregiedelacampagne.tld/track.php?id=idaffilie&campagne=idcampagne" frameborder="0" height="1px" width="1px"></iframe>

Avec ce code, le cookie est généré et attribué à votre visiteur. Si le visiteur achète un article, ou complète une autre action qui rentre dans le cadre de la campagne, sur le site de l’annonceur, vous toucherez une commission.

On aurait pu ici utiliser une image (facile) ou une image associée à une redirection (plus complexe), mais je ne souhaite pas être à l’origine d’éventuelles fraudes. Chaque annonceur pourra faire ses tests et ainsi améliorer la sécurité de sa campagne.

Comment détecter le cookie stuffing ?

Plusieurs paramètres rendent le cookie stuffing détectable :

  • Le referer (qui doit être celui de votre site)
  • L’évolution du nombre de cookies générés, si l’évolution est trop rapide,
  • Le rapport affichages/cookies générés
  • La comparaison du trafic de votre site avec les affichages des bannières
  • D’autres moyens que je ne connais pas ;)

Connaissiez-vous ces techniques ? Les avez-vous testées ? Qu’en pensez-vous ? En connaissez-vous d’autres ?
A vous la parole ! :D

SEO Black Hat : le jeu

Mardi, juin 2nd, 2009

Je sais, je sais, je suis en retard pour en parler, mais tout de même, il fallait que j’écrive quelque chose dessus, c’est tellement rare et précieux ce genre de sites, que l’on ne peut pas le laisser passer comme ça

Seoblackout - Blog SEO Black Hat Oseox - Portail webmarketing

Un jeu pour les SEO

Vous connaissez déjà les organisateurs si vous lisez régulièrement les actualités et billets SEO francophones. Il s’agit de Tiger, éditeur du blog SEOblackout et d’Aurélien Bardon, le créateur du portail OSEOX.
On ne les présente plus dans le milieu, et aujourd’hui je leur rend hommage pour leur initiative.

On commençait à s’ennuyer un peu dans le référencement francophone… Plus beaucoup de nouveautés, Kumo qui se faisait attendre, même Google nous a fait une Dance anticipée pour continuer de nous motiver… Il était temps d’agir !
Pour en finir avec la monotonie et la grisaille du SEO, ils ont mis en place ce jeu à destination des référenceurs, et notamment pour les référenceurs Black Hat.
Tout le monde est convié bien entendu, et les plus ferrus comme les plus novices pourront tenter de percer les secrets et astuces présentées au fil des épreuves.

Comment on joue ?

Facile, vous vous rendez à la première épreuve du jeu pour référenceur, et vous cliquez sur le lien qui mène à la première épreuve ;)
Toutes les épreuves ont un lien direct avec le référencement, et vous disposez systématiquement d’un indice plus ou moins obscur pour vous aider à trouver la solution.
Et n’oubliez pas cette phrase :

Que tu sois un novice de la balise title ou un véritable SEO Rockstar, ce jeu est fait pour toi.

Cela résume bien l’esprit du jeu :)

Jeu référencement

Qu’est-ce qu’on gagne ?

Comme dans tout jeu, il y a un but, mais ici il y a en plus une récompense pour les premiers :D Un joli BL sur la page d’accueil du site. Tout est expliqué sur le site, alors tentez votre chance et confrontez-vous aux tests de ce jeu très prenant !
Le site : http://www.jeu-referencement.com/

Et vous, jusqu’où êtes-vous arrivés ? :D

Et j’ai crié, crié, Alexa pour qu’elle me rank

Vendredi, mai 15th, 2009

Booster son Alexa Rank… pas toujours facile…
Aujourd’hui, cet indicateur a de plus en plus de poids dans les évaluations d’un domaine, et il n’est pas toujours facile de l’augmenter car on ne sait pas exactement sur quoi son évaluation est basée.
Enfin, plutôt, on ne savait pas car après quelques tests et retours d’expériences, j’en suis arrivé à quelques conclusions plutôt sympathiques….

Alexa Rank

Alexa Rank, c’est quoi ?

Voici une petite définition de cet indice de popularité, extraite du site, dans la langue de Shakespear.

A measure of a website’s popularity.
The rank is calculated using a combination of average daily visitors and pageviews over the past 3 months. The site with the highest combination of visitors and pageviews is ranked #1.

Pour ceux qui ne savent pas, l’Alexa Rank est un indice de popularité d’un site Internet. Plus son rang s’approche de 1 plus le site est populaire. En d’autre termes, ne vous extasiez pas si votre Alexa Rank est de plusieurs millions…. Si c’est le cas, mettez-vous sérieusement au travail !

Où trouver son Alexa Rank ?

Quelle question ! Sur le site d’Alexa bien sûr ! :P
Voici le lien vers la page de détails de mon blog BlackMelvyn’s Rank. Un ranking pas trop mal pour un petit blog black hat :D : 500 000 !

Alors comment on augmente l’Alexa Rank ?

Je ne vais pas vous donner l’astuce toute chaude dans la bouche, mais je vais vous donner la clé…
Après avoir cherché quelques temps à augmenter artificiellement mon indice, il m’est apparu évident que le moteur Alexa devait utiliser des sources de données qu’il maîtrisait.

Premier essai, j’ai utilisé des widgets Alexa sur quelques sites tests et j’ai regardé leur effet sur mon rank… Assez décevant :( Très peu d’amélioration…
Les résultats étaient davantage dûs à mon travail qu’à ce widget (on aurait pu en effet ajouter tout une série de widgets à intervalles réguliers pour booster les résultats, mais c’est peine perdu, dommage :) )

Finalement, j’en suis revenu à la bonne vieille méthode… J’ai regardé le code de la toolbar d’Alexa pour Firefox…. Et là, tout est apparu plus clair :D
Avec cette toolbar, Alexa reçoit un nombre important d’informations sur les sites visités par les internautes détenteurs de la barre d’outils, et donc, après quelques tests, en fonction des populations de visiteurs, l’Alexa Rank augmente fortement !

Vous avez donc la clé pour augmenter votre Alexa Rank artificiellement : proxies, cookies, Alexa Toolbar (Sparky) et AUTOMATISATION alors à vos ranks !

Failles XSS : encoder les urls

Lundi, février 2nd, 2009

Nombreux sont ceux qui ont lu les articles sur les failles XSS, si précieuses pour récupérer des liens de sites .gov et autres .edu, et qui perdent parfois un temps fou à les transcoder pour les faire indexer rapidement.

Pour rappel, les failles XSS (Cross Site Scripting) permettent d’injecter du code dans une page donnée mal sécurisée, via un paramètre de l’url.
Dans le cas présent, nous ne cherchons qu’à déposer un lien qui sera invisible pour l’administrateur du site qui ne regarde pas ses logs. Cependant, les applications peuvent être tout à fait meurtrières pour les sites visés. Attention donc à veiller à sécuriser vos sites ;)

On connaît plusieurs techniques pour faire indexer ces liens : les caching proxies, les liens cachés dans les sites qui ne nous appartiennent pas, les pages “satellites” (qu’elles servent encore à quelque chose :D ) etc…

Mais la problématique demeure… Comment aller plus vite pour encoder les urls et les balancer sur le web ?
Aujourd’hui c’est un petit outil très simple que je vous propose, et qui fera gagner du temps à ceux qui ne l’ont pas déjà développé.

Il s’agit d’un script PHP simplissime qui vous présente un formulaire à trois champs dans lesquels il vous suffit d’entrer l’url de la page à scripter avec le paramètre qui nous intéresse laissé vide et en dernier (cf. exemple), l’url de la page que vous souhaitez linker et l’ancre du lien.
Le résultat sera le code source du lien à ajouter (ou plutôt à injecter) dans les pages que l’on vise.

Le script d’encodage est en téléchargement libre ici : XSS encoding script
et en démo sur cette page : Démo XSS encoding script

A vous maintenant de linker les pages que vous avez indexées pour les populariser :D