Oui, ben le probl�me est que soit tu ne veux pas que tes pages soient
index�es nul part, soit tu tol�re qu'elles le soient dans certains moteurs
....

Si un site quelqu'onque va faire un lien vers un document dans ton dossier
.... le robot qui arrive du site ne passera peut-etre pas par ton
robot.txt.... donc .....

----- Original Message ----- 
From: "Coyote" <[EMAIL PROTECTED]>
To: "CyberTech" <[EMAIL PROTECTED]>
Sent: Friday, July 18, 2003 3:05 PM
Subject: [CCTK] Re: Soustraire des fichiers du Web aux google et autres
inquisiteurs



A 14:52 18/07/2003 +0200, Capt'n Le Jeck a �crit :

>Rien ne vaut un petit .htaccess avec un petit .htpassword pour �tre sur que
>cela ne pose aucun probl�me .... m�me les robots qui ne respectent pas les
>robotguidelines ne sauront plus passer.

Oui mais �a ne permet plus le passage de visiteurs "anonymes". Ou alors il
faut leur donner le mot de passe sur la page mais combien ne le "verront"
pas ?

>----- Original Message -----
>From: "Dominique Susini" <[EMAIL PROTECTED]>
>Moi, j'ai mis un fichier "robots.txt" qui contient
>
>User-agent: *
>Disallow: /cgi-bin/
>Disallow: /images/

Ah, peut-�tre une id�e, moi je n'ai pas mis le / � la fin... Vais essayer
�a.

Coyote (Multimediashop.be)



-- 
Gagnez un week-end romantique a Rome en participant au concours Ristorante!
http://www.oetker.be > > > Dr. Oetker "la qualite est la meilleure recette"
CyberCafe 2.0 <http://www.cybercafe.tv> Chaque Mardi 19h15 sur La 2!
Desabonnement par email : <mailto:[EMAIL PROTECTED]>





-- 
Gagnez un week-end romantique a Rome en participant au concours 
Ristorante!
http://www.oetker.be > > > Dr. Oetker "la qualite est la meilleure 
recette"
CyberCafe 2.0 <http://www.cybercafe.tv> Chaque Mardi 19h15 sur La 2!
Desabonnement par email : <mailto:[EMAIL PROTECTED]>

Répondre à