Bonjour à tous, et à Christian,
Pas encore expérimenté en création de site, je m'aperçoit que j'ai de
grosses lacunes côté protection et Christian, à son détriment, m'aura
rendu de grands services par ce biais aussi.
Je ne pense pas que l'on puisse empêcher quelqu'un de pomper une page
qui s'affiche sur l'écran. Le format « pdf » devrait interdire toute
retouche, et quand j'entends réclamer que l'on puisse convertir un pdf
en texte, je considère que cela doit être interdit.
Je fais part ici d'une première réflexion de ma part pour la protection :
1er objectif : Informer
Systématiquement mettre les mentions indiquant clairement que doute
reproduction est interdite sans le consentement de l'auteur et que
l'utilisation se limite à un usage personnel. Voir juridiquement les
mentions exactes. Ceci afin que la personne ne puisse pas arguer ne pas
être avertie, et pour se couvrir juridiquement
2e objectif : Disposer de preuves
L'inscription en tant que membre, courante aujourd'hui permet de
disposer de noms... Celui qui s'inscrit sous un faux nom se met en porte
à faux juridiquement s'il faut aller jusque là.
Récupérer les dates et URL des visiteurs .On peut les stocker en ficher,
en prévenant le visiteur, et par exemple afficher sur le site, selon le
code du visiteur « Bonjour Jean Naimard - Connecté à 21:38:45,218 – URL
: 879.512.095.
3e objectif : Personnaliser l'information
Le visiteur rempli un formulaire pour obtenir une page personnalisée.
Les pages sont courtes et ne fournissent qu'une partie de l'information,
ce qui est plus agréable à consulter. Cette méthode génère de nombreuses
pages qui rendent un piratage plus fastidieux, mais surtout qui lui fait
perdre de son intérêt en terme d'accessibilité. Ceci nécessite un
langage tel que par exemple PHP et un SGBD tel que MySql - libres et top
qualité ;-)
Il est dommage d'en venir là, car diffuser l'info en HTML est à la
portée de tous, mais à partir d'un certain volume et d'une certaine
qualité, c'est à dire d'une certaine valeur, il faut dépasser le stade «
je mets en vrac, piochez dedans » pour une diffusion plus organisée,ce
qui est mieux pour tous (instructif pour le concepteur, plus intéressant
pour l'internaute).
Amené à diffuser quelques informations, j'ai déjà entamé une réflexion
sur la création d'un site dans ce sens, et pourrait faire part de mes
recherches sur ce même site, pourquoi pas un forum sur ce sujet. (sauf
s'il en existe déjà).
Jean-François D
jacques-f a écrit :
Bonjour à tous,
Merci à Christian d'être revenu sur sa décision.
Plus que le site, ce sont ses interventions sur Users qui m'ont le
plus aidé.
Il y a quelques temps j'ai voulu protéger un site (plus pour m'amuser
qu'autre chose) !!!!.
J'ai commencé par mettre des fichiers sur 3 serveurs différents avec
des liens absolus et non plus relatifs.
A l'entrée de chaque serveur j'ai mis un fichier robot.txt avec des
disallow pour tous les répertoires. En principe, les systèmes
automatiques s'arrêtent à l'entrée des sites.
J'avais même mis des "no-cache", mais je ne me souviens plus de la
syntaxe.
Qu'en pensent les spécialistes ?
A+
Jacques
---------------------------------------------------------------------
To unsubscribe, e-mail: [EMAIL PROTECTED]
For additional commands, e-mail: [EMAIL PROTECTED]
---------------------------------------------------------------------
To unsubscribe, e-mail: [EMAIL PROTECTED]
For additional commands, e-mail: [EMAIL PROTECTED]