Propager l'information à AFS - AFS

AFS et les Robots

Product
AFS
AFS_Version
7.10
Category
Technical Notes

Pour pouvoir détecter et gérer les robots à l'aide du Back Office, il est nécessaire de propager le User-Agent des robots à AFS.

Voici un exemple de Code PHP à utiliser sur le serveur client:

$get = http_build_query(
array(
'afs:service' => 'xxxx',
'afs:status' => 'rc'
));
$opts = array('http' =>
array(
'method' => 'GET',
'header' => "User-Agent: ".$_SERVER['HTTP_USER_AGENT']."\r\n"
."X-Forwarded-For: ".$_SERVER['REMOTE_ADDR']."\r\n"
."Content-type: application/xml",
'content' => $get
));
$context = stream_context_create($opts);
$result = file_get_contents('http://monprojet.afs-antidot.net/search',
false, $context);

Si ces informations ne sont pas transmises à Antidot, le Back Office AFS ne sera pas en mesure de distinguer les robots des visiteurs. Les requêtes de type robots seront identifiées comme des requêtes utilisateurs classiques. La pertinence du User-Agent est le seul moyen de différencier dans les statistiques offertes par le Back Office les requêtes robots de celles des visiteurs du site.

Cependant, le Back Office ne permet pas de bloquer les robots. Seul le fichier robots.txt permet d'éviter les requêtes robots sur les serveurs AFS, et donc de ne pas être facturé dans le cas d’une offre en SaaS.

Les paramètres afs:click et afs:userAgent sont également disponibles pour surcharger respectivement l'IP et le User-Agent d'une requête faite à AFS.