12.176 cursos gratis
8.741.795 alumnos
Facebook Twitter YouTube
Busca cursos gratis:

Capýtulo 1:

 Factores relacionados con la indexación de la araña

Páginas indexadas del sitio Web

Sabemos que las arañas de los buscadores recorren la Web buscando páginas para agregar a sus índices. Nuestro trabajo como Webmasters es facilitarle el trabajo a esas arañas programando un sitio Web lo más amigable posible a los motores de búsqueda.

Antes de que nuestra página Web se posicione, tiene que ser indexada por los buscadores. Para tener una idea aproximada del nivel de indexación de un sitio Web se utiliza en los buscadores el comando de búsqueda: site:misitio.com .

Esto nos dará la lista de páginas indexadas, así como la cantidad de resultados, datos muy útiles para ver si todo va como debe.

Ver ejemplo del uso del comando site:

seo

Al escribir el comando site:misitio.com obtenemos un número de páginas indexadas por Google. Esto quiere decir que son las páginas web de mi dominio que tiene guardado en su base de datos el buscador.

Mientras más alto es este valor, mejor, quiere decir, que tenemos un número mayor de páginas que conocer Google y en consecuencia puede posicionarlas.

Para hacer un diagnóstico lo más correcto posible se tiene que medir este dato de páginas indexadas de forma relativa, es decir, comparándolo con el número real de páginas que posee el dominio.

Por ejemplo, si un sitio Web posee 500.000 páginas reales y Google a través del comando site:, nos dice que indexa 100.000, solo un 20% del total de páginas se está indexando. Ese valor es bastante bajo. El objetivo es tener un porcentaje de indexación superior al 70%.

Pero hay un pequeño problema, ya que si hacemos varias veces esa comprobación veremos que la cantidad de resultados varía, y a veces de manera importante.

Esto se debe a que dependerá de qué datacenter esté online en ese momento, qué resultados nos devuelva. Y como los datacenters no se actualizan todos a la vez, habrá diferencias de uno a otro.

Las páginas indexadas indican el nivel de profundidad con que los  buscadores han rastreado una web. La relación entre el número de páginas indexadas y el número real de páginas publicadas e indexables se denomina saturación, y el objetivo es obtener el 100%: que todas las páginas del portal estén indexadas en los buscadores.

En el caso de Google también podemos utilizar el comando para analizar la indexación de una sección si esta está separada por carpetas o subdirectorios. En este caso se utilizaría el comando site de la siguiente forma:

Site:www.misitio.com/carpetaX/

De esta forma Google nos dirá el número de páginas indexadas dentro del subdirectorio “carpetaX”

seo

El problema de medir con propiedad la indexación de un sitio Web de muchas páginas es que el Webmaster del sitio Web sepa con exactitud, cuál es el número de páginas reales del sitio Web. Este dato es muy difícil saberlo, es obligatorio, hacer una aproximación.

Por ejemplo, en el caso de una revista online, una buena aproximación puede ser el número total de artículos escritos hasta la fecha. Se supone que cada artículo escrito equivale a una página web de contenido. En este caso sabemos el mínimo de páginas reales que debería este tipo de sitio Web.

Si al hacer la auditoría del número de páginas indexadas observamos un porcentaje de indexación bajo entonces existe un problema en nuestra página que impide que la araña haga su trabajo normal de rastreo del sitio Web.

Se debe tratar de ubicar en que sección, carpeta, subdominio, etc. es donde se da el valor más bajo de páginas indexadas. Una vez identificado la zona con problemas de indexación se analiza dicha sección a nivel de programación para detectar errores relacionados con el posicionamiento en buscadores y muchos de los cuales veremos en los siguientes puntos de este capítulo.

No usar Dominios espejo

Los dominios espejo muestran exactamente el mismo contenido que el dominio principal, son detectados como contenido duplicado y uno de los dos se posicionará bien mientras que el otro quedará en resultados suplementarios.

Los casos más habituales de dominio espejo son cuando tanto el dominio con “www.” y sin “www.” están presentando el mismo contenido o cuando un subdominio muestra exactamente el mismo contenido que el portal principal.

Tenemos que comprobar que nuestro sitio Web a la hora de poner la dirección sin las www, este redirecciona a la página home con la www incluida. Si no es así, tenemos un problema de dominios espejo.

Una solución adecuada para resolver esto, sería a través del uso de un redireccionamiento 301, lo cual podemos realizar sin requerir necesariamente de la intervención del servicio de hosting, simplemente añadiendo algunas líneas de código. El redireccionamiento 301 hace que la araña y los usuarios vayan del dominio sin las www al dominio con las www.

Uso de urls diferentes e independientes

Así como las personas para diferenciarnos tenemos distintos número de identificación (DNI documento nacional de identidad) a nivel Web se recomienda que cada página que constituye nuestro sitio Web tenga una dirección Web o url distinta.

Si tenemos un portal de 40.000 páginas deberíamos tener 40.000 urls distintas. Los motores de búsqueda rastrean diferentes páginas si estas poseen diferentes urls. Si un sitio Web presenta varias páginas pero la URL no cambia nada, la araña de los buscadores no se entera de la existencia de las distintas páginas

En la programación de un sitio Web a través de Frames, Flash y Ajax suele darse con mucha frecuencia el que las urls no cambien a pesar de que estamos navegando de una página con contenido diferente a otra.

seo

No existencia de enlaces rotos

Los enlaces rotos son uno de los puntos que primero deberíamos tener en cuenta a la hora de optimizar un sitio para el posicionamiento en buscadores.

Las arañas de los buscadores se mueven internamente dentro de un sitio Web a través de los enlaces o links.

Un enlace roto dificulta a los buscadores la indexación de la página, le dice al buscador que algo anda mal, que tiene poco mantenimiento o que no se actualiza. De cara a los usuarios que llegan a nuestro Web no conviene tener enlaces rotos ya que el usuario llega a una página de error, lo que con seguridad empeora la experiencia del usuario resultado en un abandono de la visita.

seo

Por este motivo es imprescindible comprobar periódicamente todos los enlaces rotos de nuestra web. Existen multitud de herramientas para la comprobación de enlaces rotos, tanto herramientas online como pequeños programas para descargar. Algunos de los más interesantes son:

W3C Link Checker (herramienta online) – http://validator.w3.org/checklink

Broken Link Checker (herramienta online) – http://www.iwebtool.com/broken_link_checker

Xenu (programa descargable) – http://home.snafu.de/tilman/xenulink.html

seo

Nuestras novedades en tu e-mail

Escribe tu e-mail:



MailxMail tratarý tus datos para realizar acciones promocionales (výa email y/o telýfono).
En la polýtica de privacidad conocerýs tu derechos y gestionarýs la baja.

Cursos similares a Optimización del posicionamieno en buscadores



  • Výdeo
  • Alumnos
  • Valoraciýn
  • Cursos
1. Optimización de imágenes para su uso en Web
Cuando estamos haciendo una página Web es importante que esta se cargue fácilmente... [13/12/11]
19  
2. Introducción al posicionamiento natural en buscadores
En este curso vamos a tratar posicionamiento natural en buscadores , también... [09/08/11]
72  
3. Linkbuilding para el posicionamiento en buscadores SEO
Luego de haberle metido mano a nuestro sitio, de haber retocado el código Web y... [09/08/11]
42  

ýQuý es mailxmail.com?|ISSN: 1699-4914|Ayuda
Publicidad|Condiciones legales de mailxmail