La importancia (o irrelevancia) de SiteMaps
July 1st, 2008
Max Glaser hablaba hace unos días sobre la importancia del uso de SiteMaps para un sitio web.
Sin embargo, y aunque vengo utilizando SiteMaps para todos los sitios que gestiono desde hace unos cuantos años, e incluso habiendo hecho un esfuerzo importante al incluir en stanqueCMS (nuestro gestor de contenidos) un generador automático de SiteMaps, no tengo del todo claro la utilidad práctica real de SiteMaps, al menos en cuanto a lo que a Max se refiere.
Max comenta:
“En mi opinión el uso de sitemaps nunca puede dañar. Si alguna página no es muy visible para los bot mediante el rastreo normal, entonces listada en sitemaps, solo puede mejorar la posibilidad de su indexación.”
Sin embargo no estoy muy de acuerdo con esa afirmación final. Sí, en que el uso de sitemaps nunca puede dañar, pero no en el resto de la afirmación.
Se me ocurren dos escenarios para definir páginas “no muy visibles para los bot”:
1. Enlaces que no son enlaces. Es decir, que existan enlaces no estándar y no accesibles que impidan que los bot lleguen a determinadas páginas.Ejemplo: menús en Flash o enlaces que se abren exclusivamente tras la ejecución de un javascript.
A no ser que un determinado buscador siga enlaces embebidos en Flash o tenga un intérprete de javascript para esto, un buscador no tiene por que llegar hasta dichas páginas (salvo que existan enlaces externos que apunten a ellas). El caso es que en esta situación, por mucho que las incluyamos en un SiteMap, un buscador no tendría por qué indexarlas. No debería, al menos. Sería la panacea de los spammers.
2. Mala estructura de navegación. Imaginemos una web con enlaces estándar y accesibles, pero con una mala estructura de navegación. Si un bot, de forma normal, sigue un máximo de 3 o 4 niveles de profundidad, solo indexará X páginas, ¿quieres decir que si el sitio web dispone de un SiteMap el bot hará un esfuerzo “extra” (profundizando en más enlaces) para ver si encuentra esas páginas del SiteMap que todavía no ha conseguido localizar?
No veo ninguno de los dos escenarios muy verosímil.
Sí, me parece lógico y útil, por ejemplo, el uso del atributo priority. Y es por ello principalmente, además del “por si acaso”, por lo que hago uso de SiteMaps. Pero lo que si es cierto es que es muy dificíl medir la importancia o no de su uso. A día de hoy, yo no he podido obtener el más mínimo dato que me haga pensar que sirve para algo. Yo creo que en este caso se trata un poco de la fe ciega con la que nos tenemos que encomendar, sin remedio, al Sr. Google.
Este artículo tiene 4 comentarios.
Categorizado en: Buscadores y posicionamiento, Desarrollo Web, Estándares.
#1
1 de July de 2008
¡Qué gran verdad!
Hace tiempo que le doy vueltas al tema de los sitemaps, y el argumento de más peso que encuentro, sin ningún tipo de duda es: “Por si acaso”
És más, en varias webs que he posicionado, he omitido el sitemap, en una de ellas por descuido, ojo… Y todo ha indexado correctamente.
No sé, como siempre… Nunca sabremos la verdad, tendríamos que estar dentro de Google 😀
Muy buen artículo, y enhorabuena por el blog
#2
1 de July de 2008
Yo creo que si tienen una gran importancia. En mi página albergo más de 40.000 documentos, y si no fuera porque actualizo cada día el sitemap y hago el correspondiente ping a google, tardarían semanas en ser indexados los nuevos documentos que se suben cada día. Mediante el uso de sitemaps, en apenas uno o dos días Google es capaz de indexar la página perfectamente.
#3
2 de July de 2008
Embat Consultors: Estoy convencido que es el “por si acaso” el motivo de mayor peso en la mayoría de los que utilizan SiteMaps. Es impresionante (y preocupante) la fe en Google.
Gracias, llevo mucho tiempo con el blog bastante abandonado, a ver si le saco un poco el polvo y vuelvo a darle algo de vidilla.
Y, por cierto, me agrego el blog de Embat. Que gusto me da descubrir empresas que se mueven y con preparación. Si hubiéramos más, otro gallo nos cantaría a los que sufrimos esta profesión.
aNTRaX: ¿Cómo saber si el resultado de la indexación de tu sitio es fruto del SiteMap o es fruto del propio sitio? Un bot frecuenta mucho más un sitio que renueva más frecuentemente su contenido, y por supuesto mucho más si se trata de un sitio con muchos enlaces desde fuera (como es tu caso, con más de 10.000 enlaces) En tu caso, ¿Notaste un aumento significativo en el momento en el que empezaste a utilizar SiteMap? ¿O pudo ser fruto del propio paso del tiempo y la evolución del sitio? ¿Crees que el bot bajaría en intensidad de rastreo e indexación si dejaras de utilizar SiteMap?
Sé que esto último no vas a hacerlo, pero es muy posible que sea “por si acaso” 😀
#4
2 de July de 2008
Seguro del todo no estoy, eso esta claro, pero a traves de Sitemap indico la fecha de inserción del nuevo documento, y ajustando las prioridades consigo que los mas nuevos se indexen antes que los antiguos. Ademas evito que los bots refresquen documentos que prácticamente no cambian de contenido (aunque muchas veces no presten atencion a la fecha de modicacion).