Existe una lucha entre los motores de búsqueda y los generadores de SPAM.

Engañar a los buscadores para obtener tráfico es una práctica común, como te
dijeron antes penalizada por los buscadores.

Hay sistemas automatizados donde vos delegás un dominio (supongamos
repuestos.com.ar) y el sistema genera automáticamente contenido buscando
"repuestos" en google y yahoo, y viendo qué retornan las primeras páginas de
resultados. Esto se llama domain parking [
http://en.wikipedia.org/wiki/Domain_parking], y si vos delegás dominios te
pagan por los click en tus dominios.

Como esto hay cincuenta cosas similares, todas explotadas en la actualidad.


2008/9/7 Emilio Astarita <[EMAIL PROTECTED]>

> On Sunday 07 September 2008 18:28:03 Ezequiel Damico wrote:
> > Hola como estan?. Queria preguntarles si estan informados del modo en que
> > se procesan algunas busquedas en google. Para introducirlos en el tema
> les
> > voy a dar un ejemplo.
> >
> > Vieron cuando realizan una busqueda, generalmente, indexan muchas paginas
> > con el contenido que estan buscando. Nada nuevo hasta ahi. Pero hay
> algunas
> > paginas donde nada tiene que ver el contenido con la busqueda.
> Seguramente
> > les ha pasado que cuando entraron a una pagina para ver su contenido se
> > habran encontrado q dentro de la misma no habia el contenido q estaban
> > buscando, sino una busqueda interna de la pagina con los mismos
> parametros
> > que usaron ustedes en la busqueda en google. Es decir, creo, usaron los
> > parametros de la busqueda de google para generar una busqueda interna
> para
> > captar mas trafico.
> >
> > La pregunta viene aca, se puede obtener los parametros de una consulta en
> > google para dinamicamente generarle contenido y que caigan visitantes a
> tu
> > pagina?. Para mi esto es una version mas sofisticada de lo que se hacia
> > antes, poner millones de keywords con el mismo color del fondo para
> hacerle
> > trampa al buscador.
>
> No sé si entendí bien lo que decis pero no es que extraigan las keywords de
> tu
> búsqueda. En general cuando uno tiene un buscador debería usar el
> robots.txt
> para informarle a otros buscadores que no indexen esas páginas. Ejemplos:
> http://www.google.com/robots.txt
> http://search.yahoo.com/robots.txt
> Y casi cualquier buscador serio hace lo mismo. Muchos sitios omiten esto
> para
> que el buscador indexe los resultados de sus búsquedas. Por eso cuando
> entras
> apareces en una búsqueda interna del sitio.
> La solución que aplican los buscadores es penalizar por contenido
> duplicado.
> Incluso antes creo que ni siquiera se indexaban páginas que contenían
> querys
> strings.
>
> Saludos.
>
>
> _______________________________________________
> Lista de correo Programacion.
> [email protected]
> http://listas.fi.uba.ar/mailman/listinfo/programacion
>
>


-- 
_Leo_
[http://www.eeeuser.com.ar]
_______________________________________________
Lista de correo Programacion.
[email protected]
http://listas.fi.uba.ar/mailman/listinfo/programacion

Responder a