lunes, 13 de abril de 2009

comentarios del blog anterior

Para el problema numero 7, se puede usar mod_rewrite, un módulo de apache que te convierte las direcciones dinámicas en estáticas. Es muy interesante y muy simple.

Para el punto 9, mucho mas interesante que el robot.txt es hacer un sitemap del sitio:http://google.dirson.com/o.a/google-sitemaps/

Guillo: el sitemap y el robots.txt son dos cosas distintas, el primero es para hacer un mapa del sitio y enviarlo a google (con el google sitemaps), y el segundo es un archivo muy util para todos los motores de busquedas y robots que andan por la red.

Javielinux: mencionas que hay un módulo en apache para convertir las páginas dinámicas en estáticas para los “ojos” de google, alguien sabe si existe alguna función similar en IIS???

http://www.diariothc.com/2007/02/01/optimizate-para-google/

http://www.webmasterlibre.com/2007/02/01/links-for-2007-02-01/

http://pixelco.us/blog/noticias-sobre-google/

http://wordpress.org/support/

http://geektheplanet.net/154/optimiza-tu-sitio-para-google.xhtml

http://www.pingocreative.com/

http://www.borjan.es/2007/google-ahora-le-da-mucha-importancia-al-trafico-y-a-la-calidad/

http://elgeek.com/

Como que ya debemos actualizar este artico hacia una optimizacion de paginas dinámicas, porque los php invaden la web.

Respecto al punto 7 sobre páginas dinámicas, ¿cual es la razón para que el buscador limite la indexación de estas páginas? El que hace el trabajo es el servidor donde está alojada la web que es el que tiene que devolver páginas estáticas.

No hay comentarios: