Buenos dias Mar Monsoriu escribió: > 1.-El conjunto de páginas que integren el web, desde el punto de vista > de programación, deben ser lo más "robot-amigables" posibles. Es > decir, que si Google recomienda a los webmasters no usar frames, > javacripts, flash, etc. es mejor hacerle caso. Una web que cumple > estándares y es validada con el validador oficial 3W, es muy "robot > amigable". Ser Google friendly abarca otras cosas, como por ejemplo urls dinámicas reconvertidas en amigables mediante rewrite de Apache, un buen esquema web, etc. Realmente "robots amigables", como comentas, se acerca más a la idea de el poder de seguimiento y lectura del robot de Google (Googlebot) a través de la web. Para ello no hay nada mejor que ver la página de la forma en la que la vería este robot (en forma de texto).
> En ese sentido, lo que es bueno para los robots de Google > lo es también para los robots de los demás motores de búsqueda ya que > muchos ellos además tienden a funcionar como hormigas, esto es, llega > una exploradora pilla el web y luego vienen todos sus amiguitos. > La idea del camping es alegre :-), pero ni Google a veces indexa muchas veces el primero y luego vienen los demás detrás, ni lo que vale para Google vale para los restantes buscadores, por lo que puedes aparecer en unos y no en otros. > 2.-Del orden del 90 % de las visitas que llegan a los webs de nuestros > clientes lo hacen a través de las ediciones Google de algún país. > Google.com, Google.fr etc. Que un cliente dependa de tal forma de Google es más que preocupante. > 3.-En un web hecho con flash se puede hacer un trabajo de > posicionamiento y se mejora el resultado, pero el esfuerzo habría sido > considerablemente menor de estar web programado con un lenguaje > estándar como el php y haber usado hojas de estilo ccs2. > Muy cierto, pero hay clientes que quieren Flash. Es como si el médico dijera: no se me habría muerto ni yo hubiera trabajado tanto si el paciente viniera sólo con un resfriado :-) Precisamente por ello los SEO trabajamos en todo tipo de webs, sea la que sea la "enfermedad" del paciente. Si fuera todo tan fácil .. :) > 4.-Un web que sea la perfección informática pero tenga un contenido > pobre, tiene las de perder en el mercado internacional. A más volumen, > coherencia y densidad de contenidos, mejor posicionamiento se logra. > Si sobre el mismo tema y en el mismo idioma un web esta integrado por > 50 páginas y otro por 5000, ganará este segundo. De modo que el > contenido sigue siendo el rey. A los robots les da igual si > estéticamente el web es un espanto. Los robots ven los webs como las > personas ciegas. > Aquí se juntan muchas cosas en una algamasa. Los robots miran las webs en formato texto, no como las personas ciegas. El seguimiento de links es otro factor a considerar. La coherencia de la página, otra (no webs espanto, por tanto). Respecto a que una web con 50 páginas pierde ante otra de 5000 no estoy de acuerdo. Influyen muchos otros factores: links entrantes hacia las dos webs, PageRank de esos enlaces entrantes, anchor text de esos enlaces entrantes, sitios huella o semilla que apunten a uno u a otro.... Hay muchas páginas web con pocas páginas internas que ganan las primeras posiciones en Google para muchas busquedas ante páginas con muchas más páginas internas. > 6.-Otros detalles como las metatags, los archivos estándares de > exclusión, los sitemaps, las actualizaciones, etc, ayudan. Cuando más > cuidados estén todos estos pequeños asuntos, tanto mejor. Desconocemos > el porcentaje exacto de influencia sobre el resultado total, porque > nunca nos hemos podido permitir experimentar con un solo factor, pero > si que notamos que algo afecta. > Puedo recomendarte lecturas web que podrían aclararte estos puntos que desconoceis. Un saludo, María Rosa _______________________________________________ altas, bajas y modificaciones: http://www.cadius.org/lista/opciones.html

