Inicio > Google > Posicionamiento de páginas en internet: Factores internos (on page)

Posicionamiento de páginas en internet: Factores internos (on page)

Fuente: http://www.manualdeposicionamiento.com/guia-de-referencia-seo/factores-internos-on-page/

Factores Internos (on-page)

Tu sitio web es el escaparate de lo que eres y ofreces a millones de internautas alrededor del mundo, y como alrededor del mundo hay muchas formas de ver las cosas, lo que has de hacer es tener en cuenta eso y plantear un sitio web que sea comprensible para todos, que utilice tecnologías lo más estándar posible siempre pensando en el usuario tipo, además de las muchas excepciones que pueda haber, ya que esas excepciones son las que harán del sitio el mejor, entre los cuales hay que incluir personas de visibilidad reducida, motores de búsqueda, navegadores de todo tipo… 

Si lo importante son los contenidos, aquí tienes la forma de ponerlos en el sitio web de forma óptima. Hay muchos factores a tener en cuenta pero sobretodo has de aplicar el sentido común ya que es imposible tener una página optimizada al 100% y hay que sopesar qué es mejor aplicar en cada momento. No hay que olvidar que tampoco debes sobreoptimizar tu sitio ya que podría ser contraproducente. 

3.1. Dominio 

Uno de los elementos más importantes de un sitio web es su dominio. Si quieres que tenga algún peso en posicionamiento es interesante que contenga la palabra clave principal del proyecto. Esto no significa que sea imprescindible, pero ayudará a mejorar la posición en la mayoría de motores de búsqueda. 

Ante la elección entre un dominio con o sin guiones, lo mejor es no usar ningún tipo de elemento “extraño” en la dirección, y en caso de ser necesario, sólo tenga como máximo un guión. 

3.1.1. Territorialidad 

Los buscadores, cada vez más, están dando más importancia a la geoposición de un dominio, es decir, que si la información de un dominio está enfocada a un país en concreto, este dominio aparecerá mejor posicionado en la edición local de ese buscador. 

Esto significa que si el contenido de un dominio está enfocada a España, lo mejor es usar un dominio .ES, que si está enfocada para Estados Unidos usemos un dominio .US o si está enfocada para Grecia usemos un .GR. 

Esto no significa que no podamos usar los dominios .COM o .NET para incorporar información, pero en estos casos los haremos de una forma más genérica. 

Al fin y al cabo… ¿para qué existen dominios territoriales si luego no tienen ninguna influencia en los usuarios o los motores de búsqueda? 

3.1.2. Edad 

Que un dominio lleve mucho tiempo registrado y en línea es un buen elemento a tener en cuenta para que se indexe de forma correcta y se tenga en cuenta como lugar destacado de internet. 

Aún así, aquellos que compran un dominio pensando en mantener su edad histórica, han de saber que hoy en día la mayor parte de buscadores también son registradores de dominios, de forma que tienen control absoluto sobre los cambios de titularidad o que haya en los mismos. 

Fuentes internas de Google dicen que si un dominio cambia de titular, ese dominio queda reseteado en su edad y el motor lo tratará como uno nuevo. Aún así, los resultados de búsqueda por ahora no indican eso. 

En caso de que tengas la posibilidad de adquirir un dominio antiguo, es muy interesante ver qué había en él históricamente y para ello puedes usar la herramienta Wayback Machine donde verás de forma temporal el contenido de un sitio a modo de caché. 

3.1.3. Renovación 

De la misma forma que los motores saben controlar la edad de un dominio, también saben la fecha de registro y de caducidad del mismo. 

Hoy en día, y por el precio que tienen, tener un dominio que se vaya a utilizar de una forma segura y con un producto de calidad es interesante mantenerlo registrado a 5-10 años vista, dándole pie al motor de búsqueda que sepa que es un proyecto estable y con previsión de futuro. 

3.1.4. Dominios Aparcados 

En la actualidad cuando se compra un dominio que no está pensado desarrollarse es posible establecerlo en sitios donde, al entrar, aparece una página en la que únicamente hay enlaces de pago. 

Aunque este sistema puede ser rentable, en el momento en el que se decida lanzar un proyecto bajo este dominio es probable que te encuentres con que los robots de búsqueda no pasan a indexarlo y mucho menos posicionarlo. 

En caso de encontrarte en esta situación lo mejor es comenzar a generar contenido y cuando hayan pasado al menos 6 semanas dar de alta el dominio en los buscadores de nuevo, crear Sitemaps y comenzar un proceso de reinclusión, como el que permite Google. 

3.2. Programación 

Cuando se va a empezar un sitio web lo primero que hay que tener claro, a parte de su finalidad, es cómo lo vamos a hacer. No es lo mismo hacer una página web con Microsoft Expression, con Adobe Dreamweaver o con un editor de texto plano, básicamente porque cada uno de esos programas deja el código estructurado de una forma diferente y el hecho de que facilites la estructura a los buscadores va a ayudar a que nos considere un sitio amigo. 

Otro tema interesante es que da igual que el sitio esté desarrollado en HTML plano, o que tenga programación en PHP, ASP o JSP por ejemplo, ya que, al final, el contenido que aparece por pantalla sigue siendo HTML y no programación, por lo que harás el sitio web siempre con la herramienta que te funcione mejor o consideres más adecuada para cada ocasión, ya que un sitio puede tener desarrollos en varios lengiajes de programación. 

Una de las cosas que agradecen los buscadores es que en una página web haya mucha información (sin pasarse, claro), y por ello no tiene ningún sentido que hagamos una página con 3 tablas una dentro de otra si al final tenemos realmente un 70% de código en HTML y un 30% de información. Lo que has de conseguir es que haya un 30% de código y un 70% de información. Otra cosa que es de agradecer es que las páginas se puedan ver bien en cualquier navegador y que pasen (al menos de forma razonable) los validadores de HTML, de CSS… 

Hoy en día hay 3 formas de mostrar la información por pantalla: HTML, XHTML y XML. 

El HTML es la base de una página web, de eso no hay duda, y es como se han estado haciendo los diferentes sitios web desde que apareció el HTTP, al menos hasta que empezaron a salir las primeras cosas en XHTML y los CSS. Hoy en día la mayoría de proyectos nuevos se plantean en XHTML, a menos que sea un proyecto de futuro que se puede plantear en XML. 

¿Por qué es importante elegir uno u otro? Muy simple: con cada uno de ellos se puede estructurar la información de una manera u otra. Digamos que en HTML tienes unas etiquetas predefinidas y no puedes jugar casi nada con la información… sólo la puedes estructurar. En cambio el XHTML te da algo más de juego… te permite, con muchas menos etiquetas, organizar algo más la información y con la ventaja de que el código suele ocupar mucho menos que con HTML. 

Claro está que lo ideal sería poder hacer un sitio web en XML. No todos los sitios lo necesitarían pero al poder inventarte tus propias etiquetas ganarías en la llamada Web Semántica. Puedes decir realmente qué es lo que hay en un contenido, agruparlo, estructurarlo… Eso sí, en la actualidad, el XML es mucho más complejo de indexar y almacenar por los motores de búsqueda que el XHTML ya que al no tener etiquetas establecidas, no puede asignarles un valor a cada una de ellas. 

Lo mejor es optimizar los recursos y aplicar XHTML 1.1 y CSS 2.1, soportada por todos los navegadores, y comenzar a plantearte el soporte futuro a HTML 5.0, XHTML 2.0 y CSS 3.0, sobretodo en el momento en que se consideren estándar. 

3.3. La cabecera de la página web 

Uno de los puntos interesantes de un sitio web es su título y descripción. Entre 1995 y 1998, cuando los robots de búsqueda sólo eran capaces de leer las cabeceras de un sitio web, era muy importante poner todo tipo de metatags. Se ponía prácticamente de todo aunque hoy en día ya no es necesario porque los robots leen el contenido de toda la página. 

La cabecera de cada página es lo primero que leen los robots de búsqueda y que van a decidir la estructura de la página y su configuración, por lo que es muy importante dedicarle una gran atención. 

El código HTML de una cabecera debe ser similar a éste: 


<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.1//EN" "http://www.w3.org/TR/xhtml11/DTD/xhtml11.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
  <head>
    <title>Título del Sitio Web</title>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8" />
    <meta name="description" content="Explicación de lo que vamos a encontrar en la página web..." />
    <meta name="keywords" content="algunas palabras, palabras clave, contenidos importantes" />
    <link rel="stylesheet" href="style.css" type="text/css" media="screen" />
    <link rel="alternate" type="application/rss+xml" title="feed" href="feed.xml" />
  </head>
  [...]
</html>
 

Si revisas una a una las líneas de código: 

  • El DOCTYPE es la explicación de que tipo de código HTML / XHTML vas a encontrar en el sitio. Con esto ayudas al navegador a que muestre el sitio de una forma correcta. Es un elemento obligatorio en los sitios web. Además puede llegar a indicar si un sitio está pensado para verse en un tipo de plataforma u otro (como por ejemplo el estecificar el formato XHTML para móviles).
  • El TITLE contendrá el título de la página. Más adelante hay un capítulo que únicamente trata este elemento.
  • La línea del META Content-Type indica la codificación del texto. Habitualmente UTF-8 o ISO-8859-1, teniendo en cuenta que si quieres realizar una web internacional y con soporte de futuro es mejor tenerla optimizada para UTF-8.
  • La línea del META Description tendrá una pequeña descripción de lo que vas a encontrar en esa página (en esa en concreto y no en toda la web…). Este texto ha de ser, por tanto, único en cada una de las páginas de todo el sitio. Lo ideal es que sea breve… entre 25 y 150 caracteres.
  • En la línea del META Keywords pondrás una relación de 4 a 6 grupos de palabras separados por comas, que tengan relación con el contenido de esa página. Al igual que la descripción, deberían ser únicas para esa página.
  • El LINK Stylesheet indica la dirección URL del CSS (Hojas de Estilo). Este parámetro es opcional, aunque se recomienda hacer uso de CSS.
  • El LINK Alternate indica la dirección XML del feed (sindicación de contenidos). Este parámetro es opcional, aunque si la página dispone de noticias o información actualizada se recomienda hacer uso del mismo ya que ayudará a los buscadores específicos de blogs.

En principio esto es suficiente para que la cabecera del sitio sea lo más estándar para los robots de búsqueda, navegadores y usuarios. 

Gran parte de estos elementos son los que aparecen en los resultados de búsqueda (título, descripción…) y que hay que tenerlos muy estudiados ya que son los que los usuarios encuentran:

título Museo del Prado
descripción
dirección

3.3.1. El título de cada página 

Al hacer una consulta en cualquier buscador lo que ves en los resultados son los títulos de las páginas web juntamente a su descripción (o a un fragmento de la página). Por eso el título de cada página debe ser el que necesita y no otro. El título de la página es el lugar donde los usuarios de los buscadores pulsan, por eso se hace el elemento más importante (visible) frente al resto de resultados. 

Si comienzas por la página principal del sitio deberías indicar el nombre del sitio y, por ejemplo, el lema de la empresa o una frase que exprese lo que vendes. ¿Por qué? Muy sencillo. Habitualmente si aparece nuestro sitio entre los resultados con la página principal es porque se ha hecho una búsqueda por el nombre de la empresa o de alguno de los productos. 

La página principal no es la página que ha de aparecer siempre en los resultados de búsqueda, un error muy común, que intenta considerar aparecer por muchas frases de búsqueda, algo que es complejo debido a la densidad de los contenidos posibles. 

Otro tipo de página que puedes encontrar en tu sitio son las secciones o categorías. El título debería ser también muy informativo. Por ejemplo puedes indicar como primera palabra el nombre o lo que hay en esa categoría seguido de “en Nombre de la empresa / Web”. Con esto indicarás el contenido y que lo ofreces tú. 

Estas páginas generales son las que hay que intentar posicionar para frases de búsqueda más generales, lo que hace muy interesante optimizar sus contenidos y su título. 

Por último tienes la página “final”, la página donde la persona que busca ha de encontrar el producto, servicio o contenido que está buscando realmente. Por eso el título de esta página ha de indicar únicamente el contenido. En este caso no es necesario indicar el sitio web o la empresa donde está ya que se puede ver fácilmente mirando la URL del sitio, o una vez dentro si le interesa ya se informará. 

Piensa que cuando alguien busca tu nombre, marca o empresa, lo que ha de encontrar es la página principal, y ese título se lo indicará; si busca algún producto general, un contenido genérico, deberá llegar a la página de la sección o categoría, que, como decía antes, llevará el nombre del sitio al lado para generar branding; finalmente, aquel que busque algo muy concreto buscará independientemente del sitio, de forma que cuanto más claro sea el título de los contenidos, mejor. 

Si te das cuenta no he comentado en ningún momento que en el título haya que poner una larga lista de palabras clave, y es que el título de la página ha de indicar precisamente eso: qué hay en esta página. 

3.3.1.1. La calidad de un buen título 

Aunque ya he comentado qué forma debe tener el título, también hay que pararse a pensar el contenido del mismo. Hay que tener en cuenta que las palabras que aparecen primero en el título tiene más valor que las del final, por lo que si quieres darle más fuerza a unas palabras has de intentar ponerlas al principio. 

Por ejemplo, podrías plantearte un título que fuera Añaden nuevos tipos de techo al Mini Cooper. En este caso lo más probable es que la frase de búsqueda o las palabras más importantes sean Mini Cooper. ¿No sería mejor utilizar un título más parecido al siguiente?: Mini Cooper añade nuevos tipos de techo. Al fin y al cabo significa lo mismo y dejamos al principio las palabras de más valor. 

Tampoco es lo mismo yo me río en el baño que yo me baño en el río. Con esto quiero decir que no es lo mismo poner Mini Cooper que Cooper Mini, porque los resultados de los buscadores serán diferentes aunque haya algunos resultados comunes. 

3.3.2. La descripción de la página 

Como decía antes, la línea del META Description ha de tener una pequeña descripción de lo que vas a encontrar en esa página (en esa en concreto y no en todo el sitio web). Este texto ha de ser, por tanto, único de cada una de las páginas de todo el sitio. Lo ideal es que sea breve… entre 25 y 150 caracteres, lo suficiente para que aparezca en los resultados de búsqueda, ya que no olvidemos que este elementos es exclusivamente para este uso. 

Este elemento vendría a ser como las pequeñas descripciones que aparecen en los periódicos de papel. Primero está el gran titular y luego hay una pequeña frase que describe y resumen el contenido de la página. 

3.3.3. Las palabras clave de la página 

Un buen META Keywords viene dado de la relación de las palabras con el contenido que hay en la página. Si esa lista de palabras coincide con las que el buscador considera más importantes, le dará un valor superior al sitio. Las palabras clave que hemos de indicar no han de exceder en su cantidad por lo que lo mejor sería una media de 5 grupos de palabras por página. 

Hay que tener en cuenta que debes tratar el sitio mediante herencia, o sea, si una palabra clave está en la página principal ya es válida para todo el sitio; has de elegir palabras de más general a más concreto según vayas entrando en secciones o páginas del sitio. 

3.4. Los Enlaces 

Internet es como una biblioteca gigante y la gran diferencia con una biblioteca de verdad es que en la red los saltos de “un libro a otro” se hacen a través de los hipervínculos o enlaces. Es por esto que si hay algo a tener en cuenta dentro de un sitio web es que sea fácilmente indexable y saber cómo crear un buen mapa de enlaces internos, ya que eso es en lo que se basan los motores de búsqueda, en encontrar enlaces para poder indexar toda la red. 

Lo primero de todo es ver cómo hay que crear un enlace. Según los estándares del W3C se indica que un enlace tiene un posible atributo (opcional) que es el del “title”. Este atributo, como recomendación, es que tenga el título <title> de la página de destino. 

Este podría ser un enlace habitual… 


<a href="http://www.mundijuegos.com/">mundijuegos</a>
 

Aunque, ¿no sería mejor uno así? 


<a title="Mundijuegos: Juegos MultiJugador" href="http://www.mundijuegos.com/">juegos multijugador</a>
 

El uso de los títulos (que, personalmente, a mi me gusta poner antes de la URL y “lejos” del texto del enlace, precisamente para ayudar a la densidad de palabras clave) se supone que es para ayudar a las personas invidentes y a determinados navegadores. No hay que olvidar que un robot de búsqueda se comporta como un invidente ya que no es capaz de ver el resultado del sitio web sino que ha de imaginárselo y por ello le has de facilitar la ayuda. Esto no supone que haya que hacer webs sólo texto, pero sí que hay que ayudar a cualquier persona a que la navegación sea correcta. 

Volviendo a los enlaces, una vez sabemos cómo hay que construirlos, hay que dejar claro que la navegación es fundamental en un sitio web. Nadie ha de tomárselo literalmente pero queda prohibido el uso de “popups” o “JavaScript” dentro de la parte donde se pone la URL. Además, hay que dar facilidades al usuario para que siempre pueda tener una especie de “línea de navegación” de forma que pueda volver a la categoría padre de la sección del sitio donde se encuentre, y así facilitar una estructura del sitio. 

Es muy habitual en algunos sitios ver esto: 


Inicio -> Noticias -> Buscadores -> Google -> Imágenes
 

Cada una de estas opciones o palabras deberían estar enlazadas a su categoría o sección correspondiente para que el usuario siempre sepa en todo momento dónde está y cómo poder volver “atrás” sin necesidad de usar el botón del navegador… Recuerda que los robots que rastrean la web no tienen ese botón y no pueden llegar a una página en la web en la que no se pueda volver atrás sin un enlace. 

El hecho de tener unos enlaces lo más cuidados y trabajados posibles van a hacer que la indexación del sitio sea óptima. 

3.5. Cabeceras, Negritas, Cursivas, Listados… 

No hay que olvidar nunca que los motores de búsqueda, por ahora, lo que priorizan son los contenidos diferentes de cada página de un sitio web. Por esto, además de tener buenos contenidos, hay que pensar en darles un buen formato y aplicar el sentido común, ya que si ofrecemos a los buscadores un contenido estructurado y con unas etiquetas correctas, se priorizarán las palabras o frases marcadas. 

Para empezar, todo texto debería tener un título. Este título, al ser lo más importante de la página (del texto ó contenido que incluyamos), debería ser el tradicional <h1> del HTML. Las cabeceras van del <h1> al <h6> pero habitualmente sólo se usan del <h1> al <h3>. 

Teniendo en cuenta se según los estándar de usabilidad sólo puede haber un único <h1> por página, lo añadiríamos junto a una breve entrada o bloque resumen y el resto se puede intentar “seccionar” con bloques <h2> y <h3> como si fueran subsecciones del texto principal, ya que estos no tienen límites. No es bueno abusar de esto (como de nada) por lo que harás un uso responsable y sólo lo usarás si es necesario. 

De la misma forma que pones títulos a tus textos, también harás uso de las negritas, cursivas… en HTML hay muchos sistemas de formateado de texto (se supone que el HTML se hizo para eso) por lo que deberías también utilizarlos si se diera el caso. 

  • <abbr>
    indica que el texto es una abreviatura (WWW, HTTP, URI…).
  • <acronym>
    indica que el texto es un acrónimo (WAC…).
  • <address>
    indica una dirección postal.
  • <b>
    es la etiqueta que indica fuerza en un texto (negrita). Se usa también <strong>.
  • <big>
    marca que el texto ha de tener un tamaño mayor.
  • <blockquote>
    se utiliza de forma muy similar al <cite>.
  • <cite>
    contiene una cita o referencia de otro texto.
  • <code>
    indica que el texto es un fragmento de código informático.
  • <del>
    marca que el texto ya no tiene valor. Suele acompañar a <ins>.
  • <dfn>
    marca la definición de una palabra o frase.
  • <em>
    es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <i>.
  • <i>
    es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <em>.
  • <ins>
    marca que el texto es nuevo con respecto al original. Suele acompañar a <del>.
  • <kbd>
    indica texto que el usuario debe introducir en su ordenador.
  • <pre>
    para mostrar texto sin formato.
  • <q>
    muy similar a <cite>, pero para fragmentos muy cortos (normalmente en una misma línea).
  • <samp>
    código que daría un ordenador.
  • <small>
    marca que el texto ha de tener un tamaño menor.
  • <strong>
    es la etiqueta que indica fuerza en un texto (negrita). Se usa también <b>.
  • <sub>
    indica que el texto está por debajo del normal.
  • <sup>
    indica que el texto está por encima del normal.
  • <tt>
    marca que el contenido tiene formato teletipo.
  • <var>
    marca el texto como si fuera una variable.

Es muy interesante que hagas un uso responsable de cada uno de ellos en la medida de las necesidades del texto, ya que si damos la importancia a una palabra o fragmento del texto, estará mucho mejor valorado y puntuado por las arañas de indexación sobretodo si la búsqueda puede tener alguna relación con los contenidos que allí se muestran. 

De igual forma, también se pueden realizar listas de elementos, ya sean listas ordenadas <ol>, desordenadas <ul> o de definición <dl>. 

3.6. Las imágenes 

Lo mismo que el texto, una imagen es un contenido y también es importante. Hoy en día la mayoría de motores de búsqueda tienen un buscador específico de imágenes que siempre vienen bien para atraer tráfico, ya que se estima que entre un 5% y un 10% llega desde este tipo de búsquedas. 

En las imágenes debes tener dos detalles siempre presentes: el nombre de la imagen y describirla correctamente. 

El nombre de la imagen es el nombre que se le da al fichero que se publica en la red… no es lo mismo que una imagen sobre la reproducción de las ranas se llame “imagen1.jpg” que “reproduccion-ranas.jpg”. Aunque no lo parezca, además del nombre, que es mucho más significativo y tiene incluidas las palabras clave, es mucho más “razonable” para que una persona vea el nombre del fichero y sepa de qué trata, lo que hará que el usuario tienda a pulsar sobre la imagen. 

La descripción viene dada para el cumplimiento del HTML y de la usabilidad, sobretodo para personas invidentes que utilizan navegadores poco habituales. Toda imagen ha de llevar, en la actualidad, un texto alternativo. Este texto alternativo es el que aparece en el sitio web si la imagen, por la razón que sea, no puede aparecer. En este caso lo interesante es incorporar palabras clave, al igual que en el nombre del fichero, pocas palabras pero que describan claramente qué es la imagen. Por otro lado, es muy recomendable incluir en cada imagen un título descriptivo -que explique realmente en qué consiste la imagen y que es lo que aparecerá si alguien deja el ratón encima de ella-. 

Esto se da con dos elementos: “alt” y “title”, que son los mandatarios en estas cuestiones. Los resultados de búsqueda de imágenes muestran, además de la imagen, una breve descripción de lo que incluye dicha imagen o un fregmento de texto, que suele ser el “title”, y que ayuda a subir posiciones entre los diferentes resultados que puedes encontrar. 


<img title="Armario del siglo XIX con un estilo contemporáneo"
src="http://misitio.ext/imagen/armario-XIX-contenporaneo.gif"
alt="armario siglo XIX contemporáneo" />
 

Al igual que en los enlaces el hecho de poner el “title” delante de la dirección de la imagen y tras ella el texto alternativo “alt” ayuda a mejorar la densidad de información, ya que hay que recordar que los motores de búsqueda utilizan la información existente alrededor de una imagen para posicionarla, ya que no pueden saber qué contenido tiene la misma (aunque se está trabajando en ello). 

3.7. Flash 

Puedes encontrarte con sitios web en Flash, no cabe duda, y si bien es cierto que los buscadores pueden leer el conteido de determinados textos dentro de los ficheros SWF, por normal general no sirve para nada y es difícil de posicionar. 

Si de una forma más o menos obligatoria hemos de dejar los contenidos en Flash, lo mejor es que las primeras capas del mismo sean las de texto, y así podrán leerse. 

Con respecto a la página que aloja el contenido en Flash, el título y la dirección URL se vuelven mucho más importantes que el resto de elementos. Incluso hay que plantearse separar algunos elementos en diferentes páginas para poder optimizar mejor. Además, a parte de crear enlaces dentro de los SWF, será interesante que los enlaces entre páginas estén disponibles desde el exterior de la página también. Así conseguirás que indexe el robot, de forma más sencilla, todas las páginas del sitio. 

Por esta misma razón, el conseguir enlaces ha de basarse en el contenido de los títulos y las direcciones URL. Si las palabras de los enlaces coinciden con los títulos, como he comentado anteriormente, habrá mayores posibilidades de éxito. Eso sí, en estos casos lo mejor es conseguir enlaces de sitios con mucho peso, ya que sino será muy complejo el aparecer entre los resultados de búsqueda. 

Aún así, lo más recomendable sigue siendo tener un sitio web en el que no haya Flash. Una posibilidad para hacer sitios es usar SWFObject() que permite disponer de un bloque de contenido textual y ser sustituido por un objeto Flash. Esta solución sería la óptima a nivel SEO si se utiliza correctamente. 

3.8. Los contenidos 

El contenido es el elemento de mayor importancia para cualquier sitio web. No importa lo sofisticados se vuelvan los buscadores o cuántos factores externos se agreguen a los algoritmos, en definitiva, lo que juega un rol vital a la hora de los rankings es el contenido textual principalmente, junto al resto de contenidos que se puedan ir añadiendo (imágenes, vídeos…). 

Cada página de un sitio es una potencial página de aterrizaje para lo usuarios provenientes de los buscadores. Por ello es esencial que cada página tenga las palabras claves más relevantes para esa página y que no las obviemos. 

Es muy habitual querer que la página inicial de nuestro sitio consiga atraer el 100% del tráfico del sitio, pero es mucho mejor distribuir la recepción de tráfico entre varias páginas o categorías que tengan una temática más específica. Es crucial que el contenido no sólo sea amistoso con los motores de búsqueda, sino que también sea provechoso para la audiencia, es decir el usuario. 

Hay que tener en cuenta que si un usuario llega desde un buscador a una página y no encuentra el contenido que busca, automáticamente cierra esa ventana y se vuelve al buscador… en cambio, si encuentra lo que busca y, además, le damos más información relacionada, es probable que se quede un rato navegando por el sitio. 

3.8.1. Contenido fresco 

Uno de los factores más importantes en la actualidad es el factor frescura ya que juega un rol muy importante que se manifiesta en una patente que le ha sido otorgada a Google y que trata sobre los factores temporales a la hora de medir la actualización de una página. Se puede decir, como regla básica, que cuanto más se actualiza el contenido de una página, mayor es la probabilidad de que un buscador la considere un punto extra positivo a la hora de los rankings. 

Además, gracias a los nuevos sistemas de indexación, los robots de búsqueda son capaces de llegar a encontrar una página a los pocos minutos de haber aparecido y ponerla en buenos puestos de los resultados de búsqueda, de forma que si los usuarios entran en esta nueva página, el buscador la mantendrá o incluso subirá de puestos. 

Sin embargo, agregar elementos de frescura a la página puede ser un tarea que consuma tiempo. Hay diferentes maneras para generar contenido fresco, sin la necesidad de consumir demasiados recursos. 

  • Notas de prensa
    son algunos los casos en los que se dispone de una agencia de prensa… lo más interesante es que esas notas de prensa estén en una sección del sitio y así mantenemos esa seción con cierta frecuencia actualizada.
  • Preguntas frecuentes
    en la mayoría de sitios hay una zona de contacto donde se pueden añadir una serie de preguntas y respuestas habituales que suelen realizar los visitantes al llegar al sitio.
  • Blogs
    fácilmente con un sistema de blog se puede integrar contenido más o menos actualizado al sitio web en cuestión que haga que parte del material que haya no sea estático y esté actualizado.
  • Directorios
    crear un pequeño directorio en el propio sitio web ayudará a que generemos contenidos temáticos y que enlacen a sitios de calidad, algo que valoran positivamente los robots de búsqueda.
  • Glosarios
    un pequeño listado de palabras con sus respectivas definiciones, enlazando a las secciones de la web, puede ayudar a que los usuarios encuentren lo que buscan cuando no tienen claros los conceptos.

Los buscadores intentan entregar al usuario contenido relevante para sus búsquedas, por lo que las páginas que están enfocadas concretamente a una temática tendrán mejores posiciones en los resultados. Lo ideal es organizar el sitio web de temas muy genéricos a temas más concretos, de forma que cuanta más profundidad tenga el sitio más concretas sean las temáticas que allí se tratan. 

Pero no sólo es importante mantener el contenido fresco, sino que la cantidad de contenido y páginas han de ir aumentando con el tiempo. Los sitios que tienen pocos contenidos pueden ser planteados por los buscadores como páginas que no se actualizan o no evolucionan y eso no es bueno para subir posiciones, de forma que si puedes generar contenidos con frecuencia, ganarás en calidad y reconocimiento (además de tener más contenido por el que ser encontrado). 

La implementación de un blog corporativo que se actualice con cierta frecuencia no sólo es una excelente herramienta de marketing y comunicación sino que además es beneficioso para el posicionamiento por su naturaleza propia. 

3.8.2. Frases de búsqueda y palabras clave 

Una cosa que sí debes tener en cuenta al crear contenidos es cuidar cómo lo haces. Sí, puede parecer que crear contenidos es muy sencillo, pero si realmente lo fuera no existiría la carrera de Periodismo, ni por supuesto, los periodistas, principales generadores de contenidos. 

Por eso cuando hagas un contenido, y sobretodo los textuales, hay que tener muy claro qué es lo que queremos destacar del texto. Hasta ahora se hablaba del concepto de “palabras clave”, pero cada vez más los usuarios que buscan utilizan más palabras a la hora de realizar sus consultas, lo que hace que no te centres tanto en palabras clave como en frases de búsqueda o conceptos. 

Y es que cada vez más hay de tener en cuenta que tipo de perfil es el que queremos conseguir atraer al sitio, ya que sabiendo este perfil puedes preveer cómo busca y por ende el lenguaje que va a utilizar. 

Un ejemplo de artículo podría ser éste (como ejemplo de una supuesta web de ciencia con un nivel medio-bajo): 

La vida empezó “en el fondo del mar” 

Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en la comunidad científica. 

La nueva concepción sostiene que los organismos vivos se originaron en los que llama “incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de hierro. 

La teoría, propuesta por los profesores William Martin, de la Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow, cuestiona de la raíz ideas convencionales. 

Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los cuales se fueron juntando para generar una estructura celular básica. 

La nueva propuesta señala, en cambio, que la célula se formó primero y que después se rellenó con moléculas de vida. 

Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen organismos en planetas donde antes se pensaba que sería imposible. 

Tras la lectura de este fragmento de noticia podrías plantearte cuáles son los conceptos que tal vez interesaría posicionar: “dónde comenzó la vida” y “origen de la vida”. Estas dos frases pueden ser una búsqueda que la gente haga y por tanto es algo que debes plantearte posicionar. Además podrías destacar los nombres de los científicos. 

Así pues, puedes dejar redactado el artículo de la siguiente manera: 

El origen de la vida en el fondo del mar 

Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en la comunidad científica. 

La nueva concepción sostiene que los organismos vivos se originaron en los que llama “incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de hierro. 

La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow, cuestiona de la raíz ideas convencionales. 

Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los cuales se fueron juntando para generar una estructura celular básica. 

La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó primero y que después se rellenó con moléculas de vida. 

Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen organismos en planetas donde antes se pensaba que sería imposible. 

Una vez tienes el texto completamente redactado (con las principales frases con las que conseguir tráfico en párrafos con cierta distancia, una combinación de palabras cada 2 ó 3 párrafos), debes plantear si debe quedar como texto plano o marcando algunas palabras de alguna forma. 

Con este nuevo título y el haber introducido un par de veces los conceptos es muy probable que el posicionamiento mejore en muchos buscadores. Eso sí, hay que tener en cuenta una cosa: no abusar. La lectura para una persona es muy similar en los dos textos, aunque en el segundo, hacemos que la lectura para los buscadores mejore significativamente. 

El origen de la vida en el fondo del mar 

Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en la comunidad científica. 

La nueva concepción sostiene que los organismos vivos se originaron en los que llama “incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de hierro. 

La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow, cuestiona de la raíz ideas convencionales. 

Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los cuales se fueron juntando para generar una estructura celular básica. 

La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó primero y que después se rellenó con moléculas de vida

Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen organismos en planetas donde antes se pensaba que sería imposible. 

En este último fragmento, el haber añadido conceptos en negritas y cursivas hará que el robot de búsqueda se quede atento a esos conceptos y les de cierta importancia por encima del resto del documento. 

3.8.2.1. Densidad de contenidos 

Cada buscador tiene sus propias fórmulas para calcular y encontrar resultados de búsqueda relevantes. La ubicación de los conceptos y su densidad con respecto a la cantidad de texto que se encuentra en un página, puede afectar los resultados, ya que es lógico que si un concepto aparece una única vez en un contenido de 5 páginas no tenga mucho valor con respecto al global. 

Ubicar conceptos al comienzo de cada página asegura que el enfoque de la página sea leído rápidamente. El título y los metadatos forman parte de la información disponible en la cabecera de la página, pero si se tienen palabras al comienzo del contenido, esto será beneficioso también. 

La densidad se refiere a la cantidad de veces que se repite una palabra cada 100 palabras. Es aconsejable mantener un ratio de 2%-3%, tratando de que los conceptos aparezcan en intervalos regulares entre el texto del contenido, lo que significaría que cada 2 o 3 párrafos has de incluir de alguna forma los temas principales que se están tratando. 

Habiendo dicho esto, crear páginas pensadas solamente para los buscadores no es una buena idea. El texto de la página debe poder ser leído correctamente y debe persuadir al visitante a tomar una acción. Esto significa que si ves que incluir los conceptos no es posible es mejor no forzar y aplicar otro sistema que encuentres más conveniente. 

Una forma de verlo es con la versión “solo texto” que tiene guardada Google de las páginas: 

 

http://www.google.com/search?strip=1&q=cache:www.dominio.ext/dir/pagina.html 

3.8.3. Contenidos atractivos 

Pero no todo es cuestión de añadir u optimizar contenidos, sino que la forma de hacerlo también es uno de los secretos. No basta con atraer a los usuarios desde los motores de búsqueda sino que además hay que conseguir que si llegan a la página la utilicen como fuente y se queden el mayor tiempo posible. 

Es muy importante que la página cargue rápidamente, que lo que aparece en una primera impresión sea claro y fácil de leer y que sea sencillo navegar de un sitio a otro por la misma. Además, hay que aportar elementos que nos distingan, como son enlaces relacionados a un contenido, noticias de interés, ofertas y promociones… 

3.9. Estructura del sitio 

La forma en que se organiza la información (o sea, dónde están los textos, imágenes y enlaces dentro del código fuente) puede afectar a cómo los buscadores la leen. Los robots de búsqueda leen los sitios de izquierda a derecha y de arriba a abajo (si no se les indica lo contrario, como puede pasar en países con otros alfabetos) y consideran lo que aparecería en “en primer pantallazo” (lo que se ve por pantalla nada más entrar en la página) lo más importante. 

Gracias a los CSS, si reorganizas el sitio web de una manera más estructurada, los datos se pueden colocar de manera que el contenido principal de la página quede lo más arriba posible, manteniendo la apariencia general del sitio. Como consecuencia, el contenido de la página podrá conseguir una clasificación superior, lo que permitirá mejorar el resultado global del sitio. 

A continuación te planteo algunas plantillas habituales de sitios web: 

Estructura CompletaEste podría ser el planteamiento de una estructura completa y compleja en la que nos encontramos las 5 zonas primarias de contenido. 

La zona (1) es aquella en la que habitualmente encontramos el nombre del sitio, la cabecera, junto a un buscador, una zona de publicidad u otros elementos similares. 

Las zonas (2) y (4) suelen incluir los menús de navegación o enlaces a ciertos contenidos destacados del sitio. 

La zona (3) incorporaría el contenido principal de la página, donde encontraremos el grueso del contenido de la página y donde deberán estar los contenidos principales a posicionar. 

Para acabar, la zona (5) es el pie de página, donde habitualmente están los datos de acceso a la propietaria del sitio y los enlaces a datos legales correspondientes a cada país. 

Cada sitio web tiene unas necesidades concretas y no se puede generalizar, pero dándose el caso, lo idea es que se indexe la página en 4 bloques: 

  1. Cabecera
  2. Contenidos
  3. Navegación
  4. Pie de página

Esta estructura es la ideal en el caso de que en los menús de navegación no haya enlaces externos directos a otras páginas que no sean las propias, ya que en el caso contrario, el de haber una gran cantidad de enlaces externos al final de la página, lo ideal sería cambiar el formato a la siguiente estructura: 

  1. Cabecera
  2. Navegación
  3. Contenidos
  4. Pie de página

Como digo, cada caso es un mundo y hay que estudiar bien si un motor de búsqueda podría considerar ese menú de navegación como algo “negativo” en el conjunto del sitio y por tanto será bueno estudiar la posición del mismo. 

Aún así y gracias a las tecnologías XHTML y CSS podemos permitir el lujo de que el código esté ordenado de la manera óptima SEO, pero que aparentemente se vea de otra forma. 

3.10. Mapa del Sitio 

Un mapa del sitio es una sección donde encontrarás una especie de índice de todo lo que podemos encontrar. Lógicamente no hace falta incluir todos los contenidos, sólo la estructura principal (secciones y subsecciones) de forma que el robot de búsqueda, si entra en este mapa, tenga accesibles todas las secciones principales donde encontrar información. 

Como beneficio adicional, los mapas de los sitios ofrecen la oportunidad de incluir páginas que normalmente no podrían formar parte de la estructura normal de navegación del sitio. Como ejemplo, se podría encontrar una breve lista de los contenidos más destacados para que estén a un clic y no haya de buscar el robot a través de las diferentes categorías. 

Aún todo esto, hay que tener en cuenta que no puedes excederte en la cantidad de enlaces de este mapa. Si el sitio es muy grande deberás elegir las páginas que quieras destacar. 

Esta página sirve de ayuda a la indexación, pero no implica que si una página no está en el mapa no se indexe… el mapa es una vía para facilitarle la ayuda a los robots de indexación. Además, en algunas ocasiones, si el usuario no tiene mucha idea de dónde enontrar un contenido es probable que vaya a este mapa del sitio para hacerse una idea más clara de la estructura del sitio y así poder llegar a su cometido. 

3.11. Dirección URL 

NOTA: Este capítulo tiene contenido altamente técnico, por lo que se recomienda la lectura a todo el mundo, pero la aplicación del mismo sólo a aquellos con conocimientos técnicos suficientes como para aplicarlos con seguridad. 

Como ya he comentado en varias ocasiones, la estructura del sitio es uno de los elementos que hace que la información quede bien organizada y de esa forma sea mucho más sencillo llegar a ella. 

Al igual que el título de la página web, la dirección URL es uno de los elementos que se muestran en los resultados de búsqueda, algo que la convierte en uno de los elementos importantes. 

Habitualmente los robots de búsqueda suelen indexar los sitios web en base a su profundidad. La profundidad suele venir dada por la cantidad de carpetas, archivos o parámetros de las URLs y por esto mismo hay que tener muy en cuenta su funcionamiento y su corrección (en la medida de lo posible). 

Una dirección web puede ser esta: 

 

http://www.sitiodeejemplo.com/index.php?s=1234 

O puede ser esta: 

 

http://www.sitiodeejemplo.com/contenidos/pagina-de-contenido/ 

Está claro que la segunda opción es mucho más intuitiva que la primera ya que el usuario que ve los resultados de búsqueda encuentra que la dirección tiene relación con lo que busca, además de ser mucho más sencilla de recordar que la primera. 

La pregunta es simple… ¿cómo se pueden conseguir estas direcciones de una forma sencilla? En este caso no es tan sencillo como incluir una negrita o una cursiva en un texto, ya que lo más probable es que si tienes estas direcciones tan complejas es porque usas algún sistema de base de datos. Si simplemente tienes una página en “html” lo que hay que hacer es cuidar muy bien cómo llamas a los ficheros. 

Se podría hacer una clasificación simple de dos tipos de direcciones web: las que llevan “identificadores” y las que no. Las que llevan identificador son aquellas que, a un mismo fichero (como es el caso del primer ejemplo) le pasamos un número o nombre que va cambiando y muestra una página u otra. 

También has de tener en cuenta que es muy diferente el sistema de cambios de URLs para Internet Information Server (IIS) como para Apache HTTP Server, dos de los servidores web más frecuentes en Internet, ya que existe un sistema que permite hacer estas mejoras de forma sencilla que viene implementado por defecto en Apache pero no en IIS, aunque para ello dispones de Isapi Rewrite que será 100% funcional con la versión Lite (gratuita) para las necesidades básicas. 

El funcionamiento del Mod_Rewrite es muy sencillo, aunque hay que llevar mucho cuidado con él ya que una mala configuración podría hacer que no funcione nada. Para la versión del Isapi Rewrite es recomendable la lectura de su funcionamiento. Para la versión de Apache que viene por defecto simplemente hay que crear un fichero en el directorio raíz de nuestro sitio web llamado “.htaccess” (vigilad el punto al principio del nombre), aunque también es recomendable darle una ojeada a su documentación. En el caso de los ejemplos siguientes, todos se basan en Apache. 

Como casos de ejemplo podrías encontrarte lo siguiente: tenemos unas páginas creadas por nosotros que son medianamente estáticas. 


http://www.sitiodeejemplo.com/index.php?pagina=productos 

http://www.sitiodeejemplo.com/index.php?pagina=ayuda 

Quizá para estas páginas sea mucho más simple aplicar un cambio con Mod_Rewrite para que queden así: 


http://www.sitiodeejemplo.com/pagina/productos/ 

http://www.sitiodeejemplo.com/pagina/ayuda/ 

¿Cómo lograr esto? Con un fichero “.htaccess” que incluya lo siguiente: 


RewriteEngine on
RewriteRule pagina/([A-Za-z0-9]*)/ index.php?pagina=$1
 

En este caso, la primera línea (RewriteEngine) lo que indica es que activamos el Mod_Rewrite y la segunda le indica la regla: todas las páginas que tengan el primer formato (pagina/([A-Za-z0-9]*)/), internamente llamarán al segundo formato (index.php?pagina=$1), es decir, que una página que llegue en formato “/pagina/loquesea/” internamente llamará a “/index.php?pagina=loquesea”. 

Esto vendría a ser lo más sencillo, que se puede complicar como queramos… por poner un ejemplo diferente y algo más complejo, utilizando una base de datos, el sistema funciona con identificadores, como por ejemplo: 


http://www.sitiodeejemplo.com/articulos.php?cat=novedades&id=548
http://www.sitiodeejemplo.com/articulos.php?cat=soluciones&id=32 

http://www.sitiodeejemplo.com/soporte.php?ayuda=tecnologia 

En este caso quizá estaría mejor que las direcciones fueran como: 


http://www.sitiodeejemplo.com/articulos/novedades/548/
http://www.sitiodeejemplo.com/articulos/soluciones/32/ 

http://www.sitiodeejemplo.com/soporte/tecnologia/ 

Un fichero “.htaccess” para aplicar el Mod_Rewrite quedaría como: 


RewriteEngine on
RewriteRule articulos/([A-Za-z0-9]*)/([0-9]*)/ articulos.php?cat=$1&id=$2
RewriteRule soporte/([A-Za-z]*)/ soporte.php?ayuda=$1
 

La primera regla serviría para los dos primeros ejemplos, ya que la estructura de ambas es muy similar… 

Lógicamente puedes hacer combinaciones de muchos tipos y para ello existe multitud de documentación sobre Mod_Rewrite, como la documentación de Isapi Rewrite o la documentación de Apache Mod_Rewrite. Una búsqueda en la red te arrojará multitud de opciones con las que trabajar. 

Un detalle a tener en cuenta, es que a nivel posicionamiento las sesiones y las cookies no tienen validez, por lo que no se recomienda el uso de ellas. En el caso de necesitarse, lo más recomendable es que no se indexen esas zonas en las que se utilicen, ya que se podría llegar a convertir en una penalización al duplicar el buscador todas las sesiones en páginas idénticas que lo único que cambia es el identificador de sesión. 

3.12. robots.txt 

Cuando en el año 1994 comenzaron a aparecer los primeros robots de búsqueda, o simplemente unos robots que investigaban Internet para calcular su tamaño, los administradores de sitios web se encontraban con problemas porque estos robots entraban en las páginas web y las saturaban. Es por eso que se desarrolló un protocolo para que los robots de búsqueda los cumplieran creando así los ficheros “robots.txt”. 

El fichero “robots.txt” es muy importante en lo que se refiere a los robots de búsqueda, ya que es lo primero que van a visitar de un sitio web, antes incluso que la página principal del dominio. Este fichero hay que colocarlo en la carpeta raiz del dominio (o subdominio)… no sirve de nada que esté en una carpeta interior ya que no será leído nunca. 

Este fichero, un documento de texto (TXT) normal y corriente, incluye directrices propias a cada uno de los buscadores que permiten indicarle que partes del sitio pueden o no pueden indexar, lo que te ayudará a indicarle si hay contenido que quieras que quede excluido o incluido. 

El archivo “robots.txt” más simple utiliza varias reglas: 

  • User-Agent
    el robot al que se aplica la regla.
  • Disallow
    las páginas que desea bloquear.
  • Allow
    las páginas que desea indexar.

Se pueden incluir todas las entradas que se desee así como varias líneas “Disallow” y varios “User-Agent”. 

El fichero que, por defecto, debería haber en todos los dominios si no quieres aplicarles ninguna regla sería: 


User-Agent: *
 

Con esto le indicas que todos los robots de búsqueda tienen vía libre para indexar todos los contenidos que haya en el sitio web sin excepción, siempre y cuando sean capaces de rastrearlos. 

Un ejemplo sencillo puede ser el siguiente, en el que todo el sitio quedaría excluido por los robots de búsqueda, es decir, que no se indexaría ni debería aparecer en los resultados: 


User-Agent: *
Disallow: /
 

Un ejemplo algo menos sencillo es el siguiente, en el que te encontrarás con un directorio al que los robots no han de acceder, pero donde le aplicas una excepción con una página concreta del mismo: 


User-Agent: *
Disallow: /directorio/
Allow: /directorio/fichero.html
 

Aunque también se puede jugar con los robots de cada buscador: 


User-Agent: Google
Disallow: /
User-Agent: MSNBot
Disallow: /fichero_prohibido.html
User-Agent: *
Allow: /
 

En este caso le estás diciendo al robot de Google que no puede indexar nada, al robot de Microsoft que puede indexar todo excepto el fichero prohibido y al resto de robots que pueden indexar lo que quieran. 

Existe una base de datos con la lista de robots que mantiene el sitio oficial de robots.txt

3.12.1. Dirección URL del protocolo Sitemaps 

Aunque más adelante hablaré sobre el protocolo Sitemaps, al tener este punto relación directa con el robots.txt, comentarte que desde el pasado mes de abril de 2007, los buscadores que apoyan el protocolo Sitemaps decidieron ampliar la autodetección para que, sin necesidad de registrarse en los paneles de los buscadores uno a uno, el fichero de Sitemap sea autodescubrible gracias al robots.txt. 

Para ello sólo has de añadir una línea en cualquier parte del fichero (se recomienda al inicio o al final) que incluya la dirección completa (no sirve poner el fichero únicamente): 


Sitemap: http://www.ejemplo.ext/sitemap.xml
 

3.12.2. Crawl-delay 

Una de las opciones que soportan algunos de los motores de indexación (la mayoría de los importantes lo soportan) es el parámetro Crawl-delay que indica el tiempo en segundos que ha de pasar entre una petición y otra del buscador. Esto sólo debemos utilizarlo si vemos que el servidor recibe excesivas peticiones y afecta a la estabilidad del sitio. 

Las cifras estándar a utilizar son 0.5 o 1: 


Crawl-delay: 1
 

Aunque si ves que el servidor sigue respondiendo mal puedes ampliar esa cifra para que tarde más entre una petición y otra. 


Crawl-delay: 5
 

Si pones cifras muy elevadas el robot decidirá que no puede pasar tanto tiempo allí y acabará dejando el sitio, sin indexar muchas de las páginas que tendría a la espera. 

3.13. Página no encontrada (Error 404) 

Una de las cosas que no suele tenerse muy en cuenta cuando se da de alta un sitio nuevo es el control de las páginas de error. Por defecto, los servidores web como Apache o IIS suelen mostrar una página en blanco con un mensaje de error que dice algo como “Error 404 – Página no encontrada”. 

Hay que decir que estas páginas no son indexadas por los robots de búsqueda (y que a la larga, si estaban indexadas irán desapareciendo de los resultados de búsqueda), pero sí que llevan a un problema y es que, si el robot está indexando una lista de páginas y llega a una 404 automáticamente “se le corta el rollo” y puede llegar a marcharse del sitio web. 

La opción por defecto y que deberías usar habitualmente para tratar este tipo de errores es aquella en la que se devuelve un error 404 del servidor pero, en vez de utilizar una plantilla básica que diga que esa página no se ha encontrado, configuremos el servidor web para que, por ejemplo, muestre la página del mapa del sitio. De cara a los buscadores da igual qué página mostremos, ya que al ser un error no se indexará ni se tendrá en cuenta, pero de cara al usuario es mucho mejor mostrarle el mapa del sitio o una página similar en la que se le indique que esa página que buscaba ya no existe pero que pueda seguir navegando por el sitio sin problema. 

En algunas ocasiones podrías plantear crear redirecciones o mostrar por defecto la página principal del sitio, pero esto puede suponer a corto plazo que los robots indexen páginas que no existen con el mismo contenido de la página principal y que podrían suponer una penalización por tener muchas páginas iguales. 

En cualquier caso, tener unas páginas de error para todos los errores posibles es siempre interesante, ya que aunque el Error 404 es el más habitual existen muchos otros. 

3.14. Hosting / Alojamiento Web 

Tener una web alojada en un sitio gratuito sirve de poco. Puede haber miles de webs, el rendimiento puede ser bajo y tu sitio se merece algo mejor. Por eso has de buscar un alojamiento de calidad, en cuya IP hayan pocos sitios web, donde puedas tener el control absoluto del dominio y que permita tener todo lo que necesites. No es necesario tener un alojamiento dedicado -que puede ser algo caro- pero siempre hay que buscar la calidad. 

Los robots de búsqueda van pasando e indexando tu sitio web a diferentes horas del día y, si en ese momento el rendimiento del servidor es bajo lo más probable es que el robot se marche y no indexe los contenidos actualizados ese día. Si el problema es recursivo puede llegar a producirse la pérdida completa del posicionamiento. 

Además, uno de los factores que los robots de indexación tienen en cuenta es la velocidad de descarga del sitio, por lo que si el rendimiento es bajo se considerará un sitio de baja calidad y ello podría suponer pérdida de puestos en los resultados de búsqueda. 

Categorías:Google Etiquetas: ,
  1. Aún no hay comentarios.
  1. No trackbacks yet.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: