In SEO, Google, Posicionamiento web

google penaliza seoDesde que inició Google como buscador, lo que conocemos como SEO, Search Engine Optimization (optimización de los motores de búsqueda) también inició, así como el marketing digital en general, como una forma de dar a conocer las páginas web que empezaban a surgir, y promover las compras en línea. Desde entonces ha existido una relación muy interesante entre el buscador y los expertos en la optimización y posicionamiento web, pues el primero ha creado una serie de algoritmos para que sólo las páginas realmente relevantes aparezcan ante una búsqueda relacionada, y los segundos han tratado de entender cómo funcionan estos algoritmos para influir y mejorar las posiciones de los sitios.

En esta nueva entrada del blog de Optimización Online les contaremos sobre la creación de los algoritmos de Google, por qué fueron desarrollados, cómo comenzó el interés por la relevancia de los sitios, por qué se dan las penalizaciones y cómo evitarlas.

Desde hace varios años Google se planteó el objetivo de ser el motor de búsqueda más importante al que todo el mundo recurriera cada vez que buscara información en la web, y para esto había que enfocarse en la calidad de la información que se encontraba al realizar una búsqueda. Ante el desarrollo del marketing digital y del posicionamiento web, los índices de resultados estaban saturados con contenidos y sitios web creados por los mismos SEO’s, en su mayoría con técnicas de “Black Hat”, por lo que los resultados solían ser irrelevantes, de baja calidad y muy pobres en contenido. Por esta razón Google declaró la guerra contra el spam y decidió sacar a la luz una serie de algoritmos para evitar la manipulación de los resultados de búsqueda, con el fin de que los resultados en el índice sean de buena calidad, confiables y que realmente brindaran una buena experiencia al visitante; por la misma razón Google se encuentra en cambio constante y actualiza sus algoritmos unas 500 veces en el año (el equivalente a cada 17 horas y media), aunque los cambios no sean perceptibles.

Los algoritmos son fórmulas y procesos informáticos, que se basan en más de 200 señales o pistas, que convierten las preguntas en respuestas, adivinan lo que el usuario busca e incluyen muchos términos como la región, las tendencias en la red, los errores ortográficos, entre muchos otros. Por esta razón, podemos encontrar un gran número de componentes que se relacionan con los procesos de búsqueda en Internet y con la página de resultados que el buscador nos ofrece, ya que este último actualiza sus sistemas y tecnologías con mucha frecuencia para ofrecer resultados de calidad. Podemos afirmar que Google creó de forma no intencional los servicios de SEO, y que ha luchado contra las malas prácticas para ofrecer siempre los resultados de calidad, que respondan a la búsqueda del usuario, y para ello ha implementado diferentes cambios que no paran de renovarse, como el gráfico de búsqueda.

Un breve recuento de los algoritmos

  • PageRank
    La famosa calificación del cero al diez otorgada por Google a una página web, también conocida como PR, con base en los enlaces entrantes a la página web, por lo que es una especie de índice de popularidad. Sin embargo, el PR incluye los enlaces que provienen de páginas web externas, como directorios, redes sociales u otras, pero también de hojas internas del mismo sitio web, por ejemplo, del blog.
    Para incrementar el PR es necesario obtener enlaces al sitio, ya que para tener calificación de PR1 se requiere alrededor de cuatro enlaces, sin embargo conforme sube el nivel aumenta la complejidad, por ejemplo para subir a PR2 se requieren alrededor de veinte, mientras que para subir a PR3 se requiere alrededor de 300 enlaces. Sin embargo, la mayor complejidad radica en la forma de recibir enlaces, ya que el enlace de una página con un PR alto, con relevancia y un tráfico alto puede tener mayor valor que el de 20 enlaces de sitios de baja autoridad; recibir enlaces es como una recomendación para que Google califique mejor a la página web y la suba en posiciones en sus listados de resultados.
  • Farmer
    Cuando los expertos en posicionamiento web notaron que el PR era uno de los factores para la clasificación, y que los enlaces eran la base de esta calificación, surgieron las granjas de contenidos, es decir sitios web o directorios de baja calidad para la creación de contenidos que permitían los enlaces para la manipulación de los motores de búsqueda. El algoritmo Farmer fue creado para sacar del índice o bajar hasta las últimas posiciones a los sitios web que publicaran contenido de baja calidad en las granjas de contenido.
    Para evitar penalizaciones se recomienda no utilizar las granjas de contenido, la compra de enlaces o el uso directorios donde piden enlaces recíprocos para que tu sitio web aparezca; comprar enlaces provoca que el sitio se catalogue como falso y que tenga mala reputación.
  • Panda
    Se dice que Panda es la evolución de Farmer, ya que se basa en la calidad de los sitios pero su función más importante es la de penalizar el contenido copiado de páginas web bien posicionadas, sin aportar calidad ni conocimientos a los visitantes de la página; cuando Panda surgió en 2011, el doce por ciento de páginas web se vieron afectadas.
    Para evitar las penalizaciones por Panda se recomienda evitar copiar contenidos y controlar que otros no puedan copiarlos; del mismo modo debemos procurar que el contenido de nuestra página se indexe rápidamente, especialmente si se trata de una noticia o tendencia, para evitar que Google nos considere como copias. Si vamos a mostrar una noticia o una tendencia, se recomienda utilizar palabras diferentes, no citar ni copiar frases, sino parafrasear y enriquecer la información.
    Panda puede afectar la clasificación de un sitio completo o de una sección específica, y además de castigar al plagio, no le gustan los contenidos cortos que no aporten valor al usuario ni la redacción mala, con faltas de ortografía, por lo que se fija en el porcentaje de rebote, el CTR, el número de visitas y su tiempo de permanencia.
  • Penguin
    El algoritmo Pingüino surgió en abril de 2012 para castigar los enlaces artificiales o de baja calidad, es decir la estrategia de link building de black hat, en la que se utilizaban sitios web irrelevantes, o la compra de enlaces. Para evitar la penalización, se recomienda plantear estrategias de contenido de excelente calidad para fomentar que sean los mismos visitantes del sitio los que compartan la información (o los enlaces) y construir estrategias de link building de alta calidad, en las que se enfoquen en construir buenos enlaces, en sitios relevantes y de autoridad en vez de conseguir muchos enlaces irrelevantes y de baja calidad.
    Los botones de redes sociales son excelentes para compartir los contenidos, así como los plugins para que los visitantes comenten las notas con sus perfiles (otra forma natural de compartirlos), crear comunidades en redes sociales de la página para compartir la información y tratar de que se viralice.
    Una estrategia inteligente, que puedes considerar es promocionar tus contenidos en blogs relevantes, crear alianzas con bloggers o sitios de autoridad y relevancia o registrarte en directorios especializados, que pueden ayudarte a mejorar la reputación de tu sitio.
  • Hummingbird
    El algoritmo Colibrí que nació en septiembre de 2013 se refiere a la precisión y rapidez del significado de las palabras clave tras una búsqueda; este algoritmo en particular no penaliza a los sitios, pero favorece clasificando mejor a los sitios con base en las palabras clave utilizadas por la página web, en el contexto en que un usuario busca.
    Con este algoritmo surgen las palabras clave de tipo long tail, que permiten usar frases descriptivas o semánticas para diferenciar los contextos informativos de los de ventas para saber cuándo un usuario busca información sobre modas y cuándo quiere comprar zapatos, por ejemplo.
    Para aprovechar mejor este algoritmo se recomienda definir palabras clave y utilizarlas con sinónimos, frases descriptivas y crear contenidos con base en estas, así como optimizarlos a nivel de meta etiquetas.
  • Pigeon
    Paloma es el algoritmo que se fija en la relevancia de la geografía, surgió en julio de 2014 para, al igual que Colibrí, no penalizar sino organizar la búsqueda en función de la distancia y la ubicación del usuario que realiza una búsqueda con respecto a los sitios a clasificar.
    Este algoritmo es especialmente utilizado en las búsquedas locales de servicios como comida, y tiene como base en registro en Google Maps, por lo que se recomienda que además de crear un sitio web de buena calidad, informes a Google mediante Maps del lugar donde te ubicas, pues de este modo podrás obtener clics con más probabilidades de visitas al negocio físico.

Además de estos cuatro algoritmos, que han sido la base de las estrategias SEO y han definido múltiples y visibles cambios en la calidad de la información presentada y de las listas de resultados del buscador, encontramos otros algoritmos como: Caffeine, que se enfoca en la rapidez de la indexación para arrojar resultados actuales, en tiempo real; Freshness Update es otro algoritmo que se encarga de la importancia en la actualidad de la información; Query Encription es el encargado de encriptar la información mediante datos claves.

Existe otro algoritmo de gran importancia, que es el Hilltop, que facilita a los buscadores la labor de mostrar contenidos relevantes a búsquedas determinadas, dando prioridad a la información descriptiva, por lo que las páginas web especializadas se consideran como expertas al brindar información relevante sobre ciertos temas en particular, que le dan mayor autoridad y confianza al sitio, ya que suelen tener más enlaces de otras páginas web o redes sociales.

google penaliza seo¿Por qué y cómo penaliza Google?

No cumplir con las políticas de Google puede hacernos perder posiciones y tráfico al ser eliminados del índice, o haber bajado hasta las últimas hojas en las listas de resultados; muchos dueños de páginas web no piensan en penalizaciones hasta que sufren una y observan el impacto en el tráfico orgánico. Recuperarse de una penalización no es fácil, pero puede hacerse y lo más importante es saber por qué fuimos penalizados; las razones más frecuentes son:

  • Cuando Google encuentra signos de manipulación incorrecta al caer en las prácticas que persiguen los algoritmos (como las mencionadas arriba).
  • La denuncia de una persona que haya detectado prácticas indebidas en una página web y las notifique a un empleado de Google para que revisen la página; en este caso es posible enterarse porque se envía una notificación a webmaster tools sobre las prácticas incorrectas para que se tomen las acciones pertinentes.
  • Publicidad intrusiva. Las páginas que buscan conseguir ingresos por publicidad y que colocan demasiados anuncios, aun cuando molesten al usuario, han sido penalizadas para que estos sitios mejoren la experiencia para sus visitantes.
  • Cloaking. Mostrar contenido diferente a los motores de búsqueda y a los visitantes se conoce como cloaking y es penalizado por ser engañoso y fraudulento.
  • Perfiles de enlaces manipulados. Cuando la mayoría de los enlaces que entran a una web utilizan en mismo texto anchor con la palabra clave a posicionar, podemos ser penalizados, por lo que se recomienda replantear las estrategias de link building para que sean más naturales.
  • Alta densidad de palabras clave. Repetir muchas veces, incluso de forma irrelevante la palabra clave para optimizar el contenido anteriormente era considerado como estrategia de posicionamiento, pero en la actualidad solo nos hará víctimas de una sanción.
  • Los enlaces provenientes de sitios irrelevantes o de baja autoridad también son causa de penalización; la autoridad es el término que se utiliza para conocer la importancia de una página web o blog, por lo que es una combinación de factores como el PageRank. Si bien el PR es un término casi obsoleto, sigue tomándose en cuenta para conocer la popularidad del sitio web con base en la cantidad de enlaces externos que tenga, su calidad y autoridad. La edad y tipo del dominio también tienen gran influencia, ya que los dominios con .gob, .edu o .org son de mayor autoridad. Existen herramientas como Moz o Majestic que ayudan a conocer la autoridad de la página, por ejemplo el Trust Follow de Majestic determina el número de clics desde sitios de confianza para entrar a una página o dominio determinado.

¿Sabías qué grandes empresas como la BMW han recibido penalizaciones de Google y se han podido recuperar? Si ese ha sido tu caso, acércate a los expertos en SEO y Marketing Digital: Optimización Online, donde podemos ayudarte a diagnosticar tu página web para ayudarte a llegar a los primeros lugares con estrategias positivas, de la mano con los lineamientos de Google para que tengas tráfico de calidad y mejores tus ventas.

¡Conócenos!

Recent Posts
posicionamiento websem