> 1- Si j'utilise le string random avec mes dossier dans /public/ , cela
> va emp�cher � des utilisateurs lamda de taper au hasard des URLs et
> d'acc�der trop facilement � des documents auxquels ils n'ont pas
> acc�s, mais �a n'emp�chera pas des robots de les trouver et de les
> afficher? Renseigner le robot.txt suffit il dans ce cas?
Un robot va suivre des liens pour arriver aux ressources stockées sur
ton serveur. Si aucun lien ne pointe vers tes resources privées, un
robot ne pourra pas les trouver facilement, à moins de faire un brute
force en testant toutes les url possibles et imaginables, donc il
laissera tomber.
Il faut bricoler avec SHA1:
require 'digest/sha1'
secret_string = Digest::SHA1.hexdigest('mon_fichier') + "mon_fichier"
Tu vas voir que ça génère une chaîne de caractère tellement longue que
ça dissuadera n'importe qui. Attention SH1 ne garantie pas l'unicité du
résultat, donc c'est pour ça que j'ai rajouté le nom du fichier en plus,
tu peux rajouter une date, tronque le nom du fichier.
--
Posted via http://www.ruby-forum.com/.
--~--~---------~--~----~------------~-------~--~----~
Vous avez reçu ce message, car vous êtes abonné au groupe "Railsfrance" de
Google Groups.
Pour transmettre des messages à ce groupe, envoyez un e-mail à l'adresse
[email protected]
Pour résilier votre abonnement envoyez un e-mail à l'adresse [EMAIL PROTECTED]
-~----------~----~----~----~------~----~------~--~---