Cómo hacer una página optimizada para SEO

Ya que tienes claro lo que representa el SEO y cuáles son todos esos parámetros que toma Google para lograr posicionar tu sitio web frente a otros, es importante que conozcas cuáles son las acciones que debes tomar para que tu sitio garantice un puesto en los primeros lugares de búsqueda, o los SERPs.

En esta ocasión nos encargaremos de hablar acerca de la optimización de los parámetros de posicionamiento que podemos manejar, y también sobre todos los problemas o situaciones que tienen lugar al intentar optimizar un sitio web frente a otros. ¿Quieres soluciones? ¡Las tenemos para ti!

Para este artículo nos hemos tomado la tarea de dividir el texto en 4 secciones principales: 

  1. Accesibilidad.
  2. Indexabilidad.
  3. Contenido.
  4. Meta etiquetas.

Accesibilidad

Por lógica, el primer paso para ser capaz de optimizar los factores SEO de nuestra página web es permitir la accesibilidad a los motores de búsqueda y al contenido de nuestro sitio. En otras palabras, se necesita comprobar si el contenido de la web es visible para los motores de búsqueda y cómo estos perciben el sitio.

Existen motivos por los cuales los motores de búsqueda no pueden acceder o leer correctamente un sitio web, y si esto no sucede la optimización y el posicionamiento no pueden pasar. Estos motivos los explicaremos más adelante.

Aspectos a tener en cuenta para una buena accesibilidad

Se tienen en cuenta aspectos como:

  • Los archivo robots txt
  • Los robots de meta etiqueta 
  • Códigos de estado HTTP
  • Los sitemap
  • La estructura de la web
  • JavaScript y CSS
  • Velocidad del sitio web

Archivo robots txt

Con la ayuda del archivo robots.txt es posible hacer que los motores de búsqueda no accedan o indexen algunas secciones de un sitio web. Se considera útil para evitar que Google muestre páginas que no se quieren en lo que serían los resultados de una búsqueda. 

Un ejemplo de ello sucede en WordPress. Si no quieres que los bots de búsqueda accedan a los archivos del administrador de la página, el archivo robots.txt se usaría de la siguiente manera:

  • User agent:*
  • Disallow:/wp-admin

NOTA: Es importante utilizar esta función con cuidado, ya que si la utilizas mal podrías bloquear el acceso completo a toda tu página web, por lo que Google no podría acceder a ella y menos indexarla.

Una manera en la que esto podría pasar sería:

  • User agent:*
  • Disallow:/

Es importante siempre verificar que este archivo no se encuentre bloqueando alguna parte importante del sitio que quieras mostrar

Para confirmar esto:

Este archivo también te indica dónde se encuentra tu sitemap añadiendo el comando a la última línea de texto. 

Un ejemplo de una consulta de robots.txt completa sería:

  • User-agent:*
  • Disallow:/wp-admin
  • Sitemap:http://www.ejemplo.com/sitemap.xml

Robot de Meta etiqueta

Cuando hablamos de la meta etiqueta “robots” nos referimos a una etiqueta que le da instrucciones a los bots de los motores de búsqueda de Google para confirmarle si pueden o no indexar la página web. También indica si los enlaces o links del sitio pueden seguirse.

Es importante que cuando se realice el análisis de la página se compruebe si existe alguna meta etiqueta que esté creando un error que bloquee la lectura o indexación de la página. 

¿Cómo se ven estas etiquetas cuando revisas el código HTML? Así:

  • <meta name=”robots” content=”noindex, nofollow”>

Estas meta etiquetas son muy útiles para indicarle a Google cuáles son esas páginas que no te interesa que indexe o filtre, pero cuáles son esos enlaces que debe seguir para realizar un rastreo completo de tu sitio web. 

La etiqueta, en este caso, sería:

  • <meta name=”robots” content=”noindex, follow”>

Para comprobar el estado de las meta etiquetas puedes ir a tu página web, hacer click derecho y seleccionar “Ver código fuente de la página”.TIP: Puedes utilizar la herramienta Screaming Frog para conocer qué páginas se encuentran utilizando dichas etiquetas. ¿Cómo? Dirígete a la pestaña “Directives” en el campo de “Meta Robots 1”. Cuando conozcas qué páginas utilizan la etiqueta, solo necesitarás proceder a eliminarlas.

Códigos de estado HTTP

Existen ocasiones donde ciertas URLs dan error de lectura. Son errores comunes que seguro ya has encontrado, como el 404 o 502. Si esto sucede, los usuarios no tendrán acceso a tus páginas.

¿Qué hacer? Utiliza Screaming Frog, una herramienta que te proporciona rápidamente el estado actual de todas las URLs que manejas. Te recomendamos que por cada búsqueda o resultados que obtengas con la herramienta exportar el documento en un CSV, para que luego puedas revisar el estado en una hoja de Excel, con mayor calma y organización.

Los sitemap

Los sitemap son archivos XML que forman listas de todas las páginas que tiene el sitio web. Además, agrega información adicional a modo de filtros. Por ejemplo: con qué frecuencia cambia o actualiza contenidos, cuándo fue la última actualización, etc.

Un ejemplo de un sitemap sería:

<url>

<loc> http://www.ejemplo.com</loc>

<changefreq>daily</changefreq>

<priority>1.0</priority>

</url>

Cuando chequear el estado de tu sitemap debes tener en cuenta que cumpla con ciertos puntos o aspectos:

  • Seguimiento de los protocolos generales.
  • Esté en Google Webmaster Tools.
  • Que se encuentre actualizado. Garantiza que tienes todas tus URLs nuevas en tu sistema.
  • Existe una indexación de todas las páginas del sistema.

Si el sitio web no tiene ningún sistema resulta imprescindible la creación de uno. Puedes hacerlo en 4 sencillos pasos, que son:

  1. Genera una hoja de Excel donde colocarás absolutamente todas las páginas que quieras añadir. Puedes utilizar el mismo Excel que utilizaste en el paso de los códigos HTTP.
  2. Procede a la creación del sitemap. Puedes utilizar Sitemap Generator como herramienta, ya que es sencilla y completa.
  3. Realiza una comparación entre las páginas que están en el Excel y las que están en el sitemap. Procede a eliminar del Excel las que no quieres indexar.
  4. Sube el Sitemap a través de Google Webmaster Tools.

Estructura de la web

Cuando una estructura de una página es muy profunda, Google tiene problemas para indexarla, por lo cual la recomendación general es que no tenga más de 3 niveles de profundidad. Por supuesto esto es sin contar la página principal.

El bot de Google tiene un tiempo limitado para rastrear toda la web. Mientras más profunda sea esta, más tiempo le tomará al bot realizar el rastreo.

Es importante establecer una estructura horizontal y siempre evitar las estructuras verticales.

RECOMENDACIÓN: Como recomendación, te invitamos a realizar un esquema completo de la estructura de tu sitio web. Con este esquema serás capaz de ver cuáles son los niveles que tiene tu página, desde la página principal hasta la página más profunda que tengas. 

Esto te permitirá conocer cuántos clicks necesitan realizar los usuarios para llegar a esta última URL.

Como parte del trabajo, intenta localizar en qué nivel se encuentra cada página y con la ayuda de la herramienta Screaming Frog determina si existen enlaces que puedan apuntar a ella directamente.

JavaScript y CSS

Sin importar los años de optimización con respecto a Google y los motores de búsqueda, todavía siguen existiendo errores que debemos evitar o cuidar. Por un lado, JavaScript a veces podría ocultar una sección de tu contenido a Google. Por otro lado, CSS es capaz de desorganizar este contenido, haciendo que Google se confunda y no indexe la página por falta de estructura.

¿Cómo saber cómo Google lee tu página web? Utiliza las siguientes herramientas:

  • Plugins.
  • Comando “cache:”

Plugins

Los plugins nos permiten ver cómo un buscador percibe nuestro sitio web, es decir, cómo lo ve y lo rastrea. Existen plugins como Web Developer o Disable-HTML que nos permiten realizar estas acciones.

Para llevarla a cabo se abren las herramientas y se cierra el JavaScript. Esta acción se toma debido a que Google debe leer y analizar absolutamente todos los menús desplegables, los textos y los enlaces.

Una vez hecho esto desactivaremos el CSS para observar cuál es el orden del contenido, el real. Teniendo en cuenta que a veces puede ser desordenado por él.

Comando cache

A través del uso del comando “cache” también puedes ver cómo Google indexa tu sitio web. Para ello:

  • En el buscador coloca “cache:www. ejemplo.com” y seleccionarás la versión de solo texto. En este momento Google lo que hará es mostrarte una foto donde sabrás cómo lee tu web y te mostrará información con respecto a cuándo fue la última vez que accediste a ella.

Ahora, es importante que tengas en cuenta que para que este comando funcione de manera correcta tu página web debería haber estado previamente indexada por Google. 

Cuando Google indexa una página, se encarga de exponer con qué tanta frecuencia volverá a rastrearla en busca de actualizaciones. Por supuesto, esto último depende de varios factores: su nivel de relevancia y la frecuencia con la que esta misma página se actualice.

Ya sea que elijas utilizar un plugin o este comando cache, necesitas tener en cuenta lo siguiente:

  • Que se puedan ver todos los enlaces del menú principal.
  • Que todos los links puedan ser clicables.
  • Que no haya textos que se hagan invisibles con JavaScript o CSS. 
  • Que todos los enlaces relevantes se encuentren en la parte superior.

Velocidad de carga

Como expusimos antes, el bot de Google que realiza el rastreo tiene un tiempo limitado para realizar esta tarea. Mientras menos tiempo se tome una página en cargar, con mayor rapidez esta podrá rastrear todas las URLs que se encuentren en ella.

Es importante notar que la velocidad de carga también se relaciona con la experiencia del usuario. Si una página web carga lenta, el usuario no querrá quedarse en ella, por tanto, podría esto aumentar tu porcentaje de rebote y, por ende, esto afectaría tu posicionamiento web.

¿Cómo verificar la velocidad de carga de tu página? Utiliza Google Page Speed, que también te ayuda a determinar cuáles son esos factores que están haciendo que tu sitio se ralentice con respecto a la velocidad de carga.

Indexabilidad

Cuando los bots de Google acceden a una página para rastrearla, lo hacen para determinar si indexarla o no. La indexación permite a Google crear una lista de páginas según su relevancia, autoridad y contenido. Todos estos aspectos se toman en cuenta para posicionar una página en los primeros resultados de búsqueda.

¿Cómo comprobar si Google ha indexado mi página correctamente?

Para conocer si Google ha podido indexar tu página correctamente utilizarás el comando “site:”. Este comando lo emplearán en el buscador. Ejemplo: “site:www.miejemplo.com”.

Con esto te dirá la cantidad aproximada de URLs indexadas que tiene de tu sitio web.

Si quieres conocer la cantidad específica y real de las páginas indexadas por Google te recomendamos que utilices Google Webmaster Tools. Dirígete a esta y clickea en “Índice de Google” > “Estado de indexación”.

Con esta información puedes comparar el número de páginas con las que cuenta tu web, con el número de páginas que Google tiene indexadas. Existen tres escenarios que pueden tener lugar, que son:

  1. El número es similar. Es la situación ideal.
  2. El número de Google es menor. Esto significa que Google no está indexando tus páginas web, que podría bien tener que ver con la accesibilidad de tus URLs. Te recomendamos revisar el paso anterior para resolver esto.
  3. El número de Google es mayor. ¿Será que tienes un problema de contenido duplicado o que Google se encuentra indexando páginas que quieres evitar? Estas situaciones podrían estar sucediendo.

Contenido duplicado

Cuando hablamos de contenido duplicado nos referimos a que varias de las URLs que se tienen indexadas tienen el mismo contenido. Es un problema común que bien podría ser involuntario, pero que tiene un efecto negativo directo en el posicionamiento de tu web.

¿Por qué se duplica el contenido? Podrían ser tres razones:

  • “Canonicalización” del sitio.
  • Parámetros de la URL.
  • Paginación.

Se considera como el motivo más común de este error. Sucede también cuando tu página de inicio posee más de una URL. Ejemplo:

Todas las anteriores opciones dirigen a la misma página con el mismo contenido. Es necesario indicar a Google cuál de estas opciones necesita ser indexada y posicionada, porque podría ocurrir el error común que no se quiere: que se posicione la que quiere evitarse.

Para esta situación existen tres posibles soluciones:

  1. Realizar una redirección para demostrarle al servidor que solo existe una página para mostrarse a los usuarios.
  2. Comenzar a definir cuál es el subdominio que se necesita como principal. Esto puede realizarse con la ayuda de Google Webmaster Tools.
  3. Agregar una etiqueta “rel=canonical” en todas las versiones, que apuntan a la que es correcta.
Parámetros en la URL

Existen muchos tipos de parámetros implementados cuando se crea una web, y estos dependen del tipo de contenido o web que se esté creando. Por ejemplo, en las e-commerce esto es muy común. Donde existen filtros como “ropa, zapatos, color, talla” o sesiones de usuario. 

Estos parámetros muchas veces no cambian el contenido de la página como tal, por tanto esto hace que se generen muchas URLs que poseen el mismo contenido.

¿Cómo solucionarlo? Pues, se añade la etiqueta relacional en la página principal. De esta manera lograrás evitar cualquier confusión por Google. 

También puedes utilizar Google Webmaster Tools para solucionar esto. ¿Cómo? Sigue estos pasos: Tools > Rastreo > Parámetros de URL. Aquí establecemos los parámetros que debe ignorar Google cuando se encuentre indexando nuestra página web.

Paginación

Cuando existe una página que cuenta con más de una página pueden existir problemas de duplicado. Esto sucede generalmente en el área del e-commerce, con URLs de artículos, listas de productos, páginas de etiquetas, etc.

Aunque estas páginas cuentan con contenido distinto, como todas se centran en un mismo tema puede haber este problema de duplicación.

¿Cómo solucionarlo? Pues, existen etiquetas que puedes utilizar para ello. Estas son las rel=next y rel=prev. Dichas etiquetas permiten que los motores de búsqueda conozcan qué páginas se adentran dentro de una misma categoría o publicación.

Con estas acciones se hace posible centrar todo el posicionamiento en la página central.

¿Cómo se usan los parámetros NEXT y PREV? Para ello:

  1. Se añade la etiqueta rel=next en la sección del código fuente en la primera página:
  • link rel=”next” href=”http://www.ejemplo.com/page-2.html” />
  1. Se añaden las etiquetas en todas las páginas. Excepción con la primera y la última las etiquetas rel=next y rel=prev
  • link rel=”prev” href=”http://www.ejemplo.com/page-1.html” />
  • link rel=”next” href=”http://www.ejemplo.com/page-3.html” />

3. Se agrega, entonces, a la última página la etiqueta relativa.

  • link rel=”prev” href=”http://www.ejemplo.com/page-4.html” />

Otra de las soluciones que existen es buscar cuál es el parámetro de paginación en la URL. Una vez que lo tienes, se introduce este dato en Google Webmaster Tools para evitar que se indexe.

Canibalización

La canibalización es una situación que ocurre cuando en un sitio web diversas páginas compiten por el uso de las mismas palabras claves, o keywords. Cuando esto sucede, Google puede confundirse y no determinar cuál página es más relevante para la búsqueda principal asociada con la keyword.

También es una situación que se presenta mucho en el e-commerce. Por ejemplo, imagina que tienes un producto que es una novela. Lo venden en tapa dura, tapa blanda y una versión digital. Son tres páginas sobre el mismo libro, haciendo que sea prácticamente el mismo contenido que se está promocionando.

¿Cómo solucionar esto? Pues, si seguimos el ejemplo anterior, entonces se debe crear una página principal del producto. En dicha página principal se podrá acceder a las diferentes páginas de los formatos del libro… en cada página se incluirá una etiqueta canónica que redirija a la página principal, de tal manera esto le indicará a Google que la principal es la que se debe promocionar.

Se recomienda centrarse en una sola keyword por cada página. De esta manera se evita la situación de canibalización. 

Contenido

En los últimos años ha quedado más que claro que, para Google, el contenido es uno de los factores más importantes para el posicionamiento en buscadores. Entonces, ¿por qué no optimizarlo?

Se considera que el contenido es lo más importante de un sitio web. Ya no basta con tan solo optimizarlo a nivel de SEO, sino que realmente el contenido debe aportar una oferta de valor para el usuario. Es decir, si la información no es relevante para los usuarios, Google nunca te pondrá como una de las primeras opciones en los buscadores.

Existen diversas herramientas digitales que puedes utilizar para determinar si el contenido de tu web es de valor. Lo más recomendable es realizar este análisis con el JavaScript y CSS desactivado, justo como te explicamos en las secciones anteriores. Con ello serás capaz de saber qué contenido Google está leyendo y cuál ignora.

Cuando analices en contenido de tus sitios web hazte varias preguntas:

  • ¿Hay suficiente contenido? Cualquier sitio web debería contener más de 300 palabras para considerarse de valor.
  • ¿Es el contenido relevante? El contenido debe ser útil y de valor para el lector. Pregúntate a ti mismo “¿Esto es relevante?”
  • ¿Haces uso de las keywords en los párrafos principales?” Es importante utilizar términos relacionados, ya que es un factor que Google toma muy en cuenta en el posicionamiento.
  • ¿Existe keyword stuffing? Se refiere al uso desmedido de keywords. Esto debe ser natural para no intentar engañar a Google al posicionar nuestro artículo.
  • ¿Existen faltas de ortografía?
  • ¿Qué tan sencillo es leer? Para evitar que la lectura sea tediosa, los párrafos redactados no deben ser demasiado largos. Es recomendable el uso dinámico de imágenes o videos.
  • ¿Puede Google leer el texto con facilidad? Utiliza el tipo que te dimos anteriormente de “solo texto” para verificar que el texto se pueda ver por Google.
  • ¿Mi estructura tiene coherencia? Necesita existir una coherencia con el uso de las etiquetas H1, H2 y H3, etc. También se recomienda la maquetación de imágenes.
  • ¿Se puede enlazar? Intenta agregar opciones de “compartir” en redes sociales de manera estratégica para que el usuario lo haga.
  • ¿Está actualizada? Mantener una actualización con respecto a contenido e información es necesario para que Google tome tu contenido como algo de valor.

CONSEJO: Te recomendamos crear un Excel con las páginas, textos y las palabras claves que quieres que se empleen en ellos. De esta forma será fácil verificar dónde se necesitan aumentar y dónde reducir el uso de estas keywords.

Meta etiquetas

Cuando se realiza el rastreo en las páginas, las meta etiquetas también llamadas meta tags, son aquellas que facilitan este trabajo al decirle a los bots sobre qué trata la página.

Existen diferentes etiquetas con las que se puede trabajar:

Title

Es uno de los más importantes ya que es el primero que aparece en los resultados de Google. Para optimizarlo ten en cuenta lo siguiente:

  • Su localización es en la sección <head> </head> del código fuente.
  • El título debe ser único.
  • No excede a los 70 caracteres.
  • Necesita ser descriptivo.
  • Necesita contener la keyword.

Es importante no abusar de las palabras clave en el título, ya que Google puede detectar esto como algo engañoso.

Si te preguntas dónde colocar el nombre de tu marca, te recomendamos que sea al final. Esto para darle mayor importancia a las keywords o palabras clave.

Meta-descripción

No afecta al posicionamiento pero sí a la cantidad de clicks que obtienes para entrar en tu página. Demuestra una pequeña probada de tu contenido.

Se tomarán los mismos principios que se toman con el Title, con la diferencia de que no debe exceder a los 155 caracteres. Lo mejor es evitar la duplicidad de contenido.

Meta keywords

Era uno de los factores que tomaban en cuenta para el posicionamiento, pero por su fácil manipulación Google decidió eliminarlo de tu repertorio.

Etiquetas o tags

Estas son las que permiten tener una óptima estructura en la información de tu sitio web. Son capaces de definir la jerarquía del contenido expuesto.

Se le da importancia al H1 debido a que está en la parte más alta.

Etiquetas “alt” de imágenes

Se utilizan en el propio código de la imagen. Un ejemplo de ello es:

  • <img src=”http://www.ejemplo.com/ejemplo.jpg” alt=”keyword molona” />

Describe el contenido de la imagen y le permite a Google rastrearla y relacionarla con tu contenido.

Conclusión

Entonces, ya sabes que existen muchos factores que determinan el posicionamiento de tu sitio web. ¿Te preguntas cuáles son las keywords que facilitan esto? 

Cómo hacer una página optimizada para SEO

Si necesitas ayuda con esto, ¡cuenta con nuestra ayuda!

Categoría:
Author: fpedrazav11
Fecha: abril 14, 2022

¿Quién soy?

¡Hola! Soy Fernando José Pedraza Desarrollador de Páginas Web en Wordpress. Soy de Cartagena (Colombia).

Diseñador web WORDPRESS, maquetador web, SEO, WPO, especialista en optimización de sitios.

Ayudo a emprendedores digitales a dar a conocer su negocio, a desmarcarse de la competencia y a posicionarse mejor en buscadores. Estoy convencido de que también puedo ayudarte a ti.

Nuestros sitios web destacados

Tu página web tiene un papel fundamental en tu negocio
Shoestique Tienda de Zapatos en República DOminicana

Shoestique Tienda de Zapatos

Conocer más

Canadian Medical Academy

Conocer más

Chiva Rumbera Cartagena

Conocer más

Mexicotur Renta de Autobuses

Conocer más

Expert Games servicio de alquiler

Conocer más

Seven Red Elephants

Conocer más
info@fpedraza.com.co
crossmenu
¿Necesitas ayuda?
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram