Buenos dias

Mar Monsoriu escribió:
> 1.-El conjunto de páginas que integren el web, desde el punto de vista
> de programación, deben ser lo más "robot-amigables" posibles. Es
> decir, que si Google recomienda a los webmasters no usar frames,
> javacripts, flash, etc. es mejor hacerle caso. Una web que cumple
> estándares y es validada con el validador oficial 3W, es muy "robot
> amigable". 
Ser Google friendly abarca otras cosas, como por ejemplo urls dinámicas 
reconvertidas en amigables mediante rewrite de Apache, un buen esquema 
web, etc.
Realmente "robots amigables", como comentas, se acerca más a la idea de 
el poder de seguimiento y lectura del robot de Google (Googlebot) a 
través de la web. Para ello no hay nada mejor que ver la página de la 
forma en la que la vería este robot (en forma de texto).


> En ese sentido, lo que es bueno para los robots de Google
> lo es también para los robots de los demás motores de búsqueda ya que
> muchos ellos además tienden a funcionar como hormigas, esto es, llega
> una exploradora pilla el web y luego vienen todos sus amiguitos.
>   
La idea del camping es alegre :-), pero ni Google a veces indexa muchas 
veces el primero y luego vienen los demás detrás, ni lo que vale para 
Google vale para los restantes buscadores, por lo que puedes aparecer en 
unos y no en otros.

> 2.-Del orden del 90 % de las visitas que llegan a los webs de nuestros
> clientes lo hacen a través de las ediciones Google de algún país.
> Google.com, Google.fr etc.
Que un cliente dependa de tal forma de Google es más que preocupante.

> 3.-En un web hecho con flash se puede hacer un trabajo de
> posicionamiento y se mejora el resultado, pero el esfuerzo habría sido
> considerablemente menor de estar web programado con un lenguaje
> estándar como el php y haber usado hojas de estilo ccs2.
>   

Muy cierto, pero hay clientes que quieren Flash. Es como si el médico 
dijera: no se me habría muerto ni yo hubiera trabajado tanto si el 
paciente viniera sólo con un resfriado :-)

Precisamente por ello los SEO trabajamos en todo tipo de webs, sea la 
que sea la "enfermedad" del paciente. Si fuera todo tan fácil .. :)

> 4.-Un web que sea la perfección informática pero tenga un contenido
> pobre, tiene las de perder en el mercado internacional. A más volumen,
> coherencia y densidad de contenidos, mejor posicionamiento se logra.
> Si sobre el mismo tema y en el mismo idioma un web esta integrado por
> 50 páginas y otro por 5000, ganará este segundo. De modo que el
> contenido sigue siendo el rey. A los robots les da igual si
> estéticamente el web es un espanto. Los robots ven los webs como las
> personas ciegas.
>   
Aquí se juntan muchas cosas en una algamasa. Los robots miran las webs 
en formato texto, no como las personas ciegas. El seguimiento de links 
es otro factor a considerar. La coherencia de la página, otra (no webs 
espanto, por tanto).

Respecto a que una web con 50 páginas pierde ante otra de 5000 no estoy 
de acuerdo. Influyen muchos otros factores: links entrantes hacia las 
dos webs, PageRank de esos enlaces entrantes, anchor text de esos 
enlaces entrantes, sitios huella o semilla que apunten a uno u a otro....

Hay muchas páginas web con pocas páginas internas que ganan las primeras 
posiciones en Google para muchas busquedas ante páginas con muchas más 
páginas internas.


> 6.-Otros detalles como las metatags, los archivos estándares de
> exclusión, los sitemaps, las actualizaciones, etc, ayudan. Cuando más
> cuidados estén todos estos pequeños asuntos, tanto mejor. Desconocemos
> el porcentaje exacto de influencia sobre el resultado total, porque
> nunca nos hemos podido permitir experimentar con un solo factor, pero
> si que notamos que algo afecta.
>   
Puedo recomendarte lecturas web que podrían aclararte estos puntos que 
desconoceis.

Un saludo,
María Rosa





_______________________________________________
altas, bajas y modificaciones:
http://www.cadius.org/lista/opciones.html

Responder a