SEO siempre ha sido un negocio complicado, los expertos no solo tienen que dedicar tiempo a investigar palabras clave y seguir las mejores prácticas, sino que deben estar preparados para los cambios que inevitablemente los motores de búsqueda implementan.

El año pasado, el gigante de búsquedas Google realizó dos actualizaciones de algoritmos principales, Panda y Penguin, que vieron a muchos sitios caer en picado en la clasificación, ya que fueron penalizados por las nuevas reglas.

Esto se debió a que los cambios se implementaron para clasificar los sitios de baja calidad, como los molinos de contenido y las granjas de enlaces, y dar más peso a los sitios que producen contenido de calidad.

Esto se lleva a cabo realizando cambios en la forma en que las arañas de Google reconocen un sitio, otorgando mejores clasificaciones a los sitios con contenido de calidad y bien redactado, y participación en las redes sociales. Para los profesionales de la web, esto creó algo de pánico, ya que los sitios estáticos que no estaban especialmente bien escritos y llenos de palabras clave comenzaron a fallar.

Las actualizaciones de Penguin y Panda se basaron en un nuevo conjunto de reglas y algoritmos más complejos diseñados para clasificar un sitio en una serie de factores diferentes.

Éstas incluyen:

  • Contenido: las arañas de Google ahora pueden decir si un sitio está mal escrito, con errores ortográficos y gramaticales, muchos anuncios y enlaces de mala calidad. Se considera que este cambio es bienvenido para muchos profesionales de SEO y digitales, ya que de inmediato derribó a los grupos de artículos de mala calidad y los molinos de contenido, lo que permite que la alta calidad ocupe su lugar y sea más útil para los buscadores.
  • Frescura: la "frescura" de la copia se ha vuelto más importante para Google que los enlaces entrantes. Esto significa que para competir en Google, es necesario agregar contenido nuevo a menudo. El ranking de frescura se centra en 3 áreas clave: # 1: temas de tendencia como los Juegos Olímpicos o la elección de EE . UU . # 2: eventos famosos recurrentes como el Superbowl # 3: qué tan recientemente se ha agregado el contenido.
  • Contenido único: ¿ alguna vez se ha copiado y pegado contenido en un sitio web para ahorrar espacio? Ahora también reducirá la clasificación del sitio. El contenido original es uno de los aspectos más importantes para determinar la posición. El contenido que contiene enlaces no naturales también se penalizará, por lo que es importante asegurarse de que los enlaces aparezcan de forma orgánica y sean muy relevantes para el contenido. Esto solo va a ser aún más importante ya que Ranking de autores de Google despega.
  • Social: como muchos de ustedes sabrán, social es el nuevo marketing y es una herramienta muy poderosa para SEO. Google ahora usa social en los resultados de búsqueda para determinar qué tan útil es un sitio en general. Ahora es importante que los especialistas en marketing en línea y SEO incluyan lo social, asegurando que todos los colores y logotipos de la marca sean uniformes en todos los canales sociales y sitios web. Además, es importante que la presencia social esté bien administrada; mal, el social administrado por bot dañará el ranking de un sitio.
  • Libre de errores técnicos: esto en particular es importante para los profesionales de la web, y sin duda eliminará muchos sitios de blogs de la percha superior. Un sitio que tiene una arquitectura de sonido funcionará mejor que un sitio que se construye a partir de plantillas, Flash o tiene más de dos años. Esto significa que el código debe estar basado en estándares con etiquetas CSS válidas y metadatos ordenados.

Cómo abordar problemas con el ranking de un sitio

Incluso algunos de los sitios más grandes se vieron afectados por los cambios en los algoritmos de Google. Leí uno que tuvo que ser retirado para poder cambiar todas las palabras clave y las páginas duplicadas.

Un sitio que está mal escrito debe tener todo su contenido actualizado, preferiblemente por alguien que pueda escribir. Esto incluye publicaciones y artículos de blog, por lo que si un sitio tiene mucho contenido como este, entonces puede ser una mejor idea quitarlo todo del sitio y agregarlo a medida que lo obtiene, o contenido diferente, escrito.

Los meta datos también deben estar limpios y ordenados y Google tiende a ignorar las palabras clave y concentrarse en las descripciones aquí. Las palabras clave, por supuesto, todavía tienen su lugar y es importante asegurarse de que aún estén bien investigadas y analizadas, pero es probable que se penalicen los artículos y blogs con una alta densidad de palabras clave. Esto se debe a que las palabras clave, cuando se usan en exceso, tienden a comprometer la calidad de la escritura.

Panda se concentró en deshacerse de los sitios que intentaron "engañar" sus algoritmos con el uso excesivo de palabras clave y el spam de enlaces. Si ha determinado que un sitio tiene enlaces de spam apuntando a él, use Herramienta Disavow de Google , que los eliminará por ti. Sin embargo, es importante en este momento señalar que se debe llevar a cabo una auditoría cuidadosa del sitio para identificar los enlaces defectuosos y se debe tener cuidado de que se use la herramienta.

Para Panda, también vale la pena verificar que el contenido de un sitio sea único; tiene que ser un 60% único en todo el sitio, así como accesible, para aprobar las reglas de Panda.

Penguin se concentró más en el contenido real y ambos algoritmos se actualizan regularmente para refinarlos. En su mayor parte, Penguin se concentra principalmente en el relleno de palabras clave en artículos y enlaces de spam.

Básicamente, ambos se preocupan por la accesibilidad, el contenido, las técnicas de correo no deseado y las nuevas reglas diseñadas para evitar el SEO de sombrero negro.

¿Qué es black hat SEO?

Básicamente, esta es una forma de intentar manipular los motores de búsqueda para que esencialmente los engañe y piense que un sitio es valioso. El sombrero negro usa tácticas agresivas y está orientado hacia el motor de búsqueda, en lugar de una audiencia humana.

En los próximos artículos, voy a echar un vistazo a las técnicas de sombrero negro, blanco y gris con el fin de dar una visión general clara de que se puede utilizar con seguridad y que son un no-no. El problema que muchos han encontrado es que algunos, menos que reconocidos, 'expertos' de SEO han empleado técnicas de sombrero negro para ganar más clientes y ganar dinero rápidamente. Esta es la razón por la que algunos sitios comerciales han caído como una piedra en la clasificación, a menudo sin darse cuenta de que han hecho algo malo.

Las técnicas de sombrero negro incluyen:

  • código de embalaje con texto "oculto" ;
  • vincular granjas donde un grupo de sitios se vinculan entre sí para enviar spam al índice de un motor de búsqueda;
  • blog spam, utilizando el campo de comentarios en blogs y foros para colocar enlaces a otros sitios;
  • raspado, una práctica en la que un sitio toma contenido de otro para parecer más valioso para los motores de búsqueda;
  • páginas de entrada usadas con la intención de atraer a los buscadores con frases no relacionadas con el contenido del sitio;
  • alojamiento parasitario , donde un sitio está alojado en el servidor de otra persona sin permiso;
  • encubrimiento, una técnica en la que el motor de búsqueda araña ve contenido diferente para el usuario final que ve a través de un navegador.

Muchos profesionales de la web consideran que los métodos de sombrero negro no son éticos, ya que utilizan tácticas que prometen rendimientos rápidos pero corren el riesgo de dañar la reputación de una empresa, el sitio web y, a su vez, las ganancias.

La utilización de métodos de sombrero negro a menudo significa que un sitio no tiene que esperar meses para la devolución de enlaces, como lo haría con los métodos tradicionales de sombrero blanco. Sin embargo, también llena internet con información inútil y spam, y con los años ha afectado seriamente la búsqueda.

También es más barato para el estratega de SEO llevar a cabo con tanta frecuencia una red de blogs que ya estará configurada para vincularse y no depende en gran medida de la analítica y el contenido, como lo hace la práctica del sombrero blanco.

El uso de métodos de sombrero negro a menudo conduce a la amenaza de acciones legales, si se utilizan junto con una campaña de PPC, se pueden generar fuertes penalizaciones por parte del anunciante.

No se recomienda que un sitio use técnicas de sombrero negro debido a las sanciones involucradas, en términos de acción legal, reputación y la amenaza de no clasificar. Sin embargo, no cabe duda de que no detendrá a todos, a pesar de las actualizaciones de Google.

Al decir eso, ya estamos viendo cómo los molinos de contenido caen rápidamente en los rankings, por lo que las actualizaciones obviamente están funcionando ya que esta es una de las áreas clave que Google quería abordar.

Google y todos los principales motores de búsqueda tienen una visión, una que pretende limpiar la web y eliminar las malas prácticas, lo que lleva a que el contenido más útil aparezca en la parte superior de la búsqueda para todos nosotros. Si usa técnicas de sombrero negro o no es entre usted y su conciencia, pero ciertamente me alegro de la capacidad de buscar y no tener una página llena de basura antes de llegar a lo que quiero.

¿Qué problemas te has encontrado como resultado de Panda y Penguin? ¿Cómo has resuelto las técnicas de sombrero negro empleadas por los predecesores? Háganos saber en los comentarios.

Imagen / miniatura destacada, imagen de búsqueda a través de Shutterstock.