abner2uyhmvm’s blog

What's my name Abner and I'm a fan of SEO and I love to share everything I learn, I hope to help in some things and be helpful.

¿Cómo los cambios en los algoritmos de Google están afectando las clasificaciones de su sitio?



posicionamiento web

Como Google es uno de los buscadores más usados, es bastante obvio que, para mantener su relevancia para los clientes del servicio que buscan en internet, y para mantenerse informados sobre los diseñadores web sin escrúpulos, los ingenieros de Google afectarán los cambios en sus algoritmos. de cuando en cuando. Puesto que estos algoritmos determinan el ranking de diferentes sitios, los cambios en estos algoritmos definitivamente van a ser la clave detrás de cómo se ven afectados estos rankings.

 Ahora, el objetivo principal de la optimización de buscadores web es volver a diseñar su sitio web para que atraiga la atención de los motores de búsqueda populares (como Google, Bing, Yahoo, etc.) y obtener una clasificación más alta de ellos, captando más interés de los clientes y generando más ingresos. para el sitio web en cuestión.

 Hay ciertos "hacer" y "no hacer" para los posicionamiento en buscadores según los ingenieros de Google, de forma colectiva abarcados por los algoritmos de Google y su sitio web puede conseguir respectivamente (por un incremento en los rankings) o penalizado (en forma de un desplegable en el ranking), por el equipo de Google para estos "hacer" y "no hacer". De nuevo, estos parámetros positivos y negativos prosiguen cambiando con el tiempo. Por ejemplo, en días anteriores, Google no pudo detectar el uso repetitivo y sin ningún sentido de las palabras clave, por lo que los diseñadores web sin escrúpulos manipularon las páginas del motor de busca llenando sus sitios web con una avalancha de palabras clave. Como resultado de no advertirse esta falla, estos diseñadores se escaparon maravillosamente, y sus sitios web consiguieron las mejores clasificaciones de Google. Pero, una vez criticados por entregar una clasificación más alta a los sitios que no lo merecen, los ingenieros de Google crearon algoritmos más complejos, de forma que hoy en día, las arañas de Google son muy capaces de advertir el relleno de palabras clave. En consecuencia, en la actualidad, el relleno de palabras clave está penalizado y estos sitios, en vez de obtener una clasificación más alta, ven una caída en comparación con otros sitios genuinos que poseen contenido significativo y relevante. Del mismo modo, anteriormente, Google no pudo detectar las técnicas posicionamiento en buscadores de Black Hat, por poner un ejemplo. Texto invisible, enlaces a sitios web no confiables o bien de correo no deseado, etcétera, mas todos estos se detectan en la actualidad y, en consecuencia, los rankings de sitios web se ven afectados por estos.

 En promedio, los algoritmos de Google se cambian en torno a 500 a seiscientos veces al año; y cada poquitos meses, las actualizaciones de Google se incorporan, lo que ayuda a las personas a tener una idea de cuál va a ser el efecto de estos cambios de algoritmo en las SERP. Conocer las datas de las actualizaciones de Google puede asistirles a analizar los cambios en las clasificaciones y el tráfico del sitio. Desde este momento, ha habido 2 géneros de actualizaciones: las actualizaciones de Panda y las actualizaciones de Penguin.

 Google Panda se lanzó en el mes de febrero de dos mil once. Los sitios se calificaron según su calidad, "incluido el diseño, la confiabilidad, la velocidad y si los espectadores volverían o bien no a ellos". Como resultado, las clasificaciones de los sitios de baja calidad (como los que tienen poco contenido y los que están cargados con un sinnúmero de anuncios) se redujeron, mientras que la de los sitios de alta calidad, como los sitios de noticias y los sitios de redes sociales, se disparó. parte superior de las SERPs.

 Por otra parte, la investigación mostró que los "raspadores o infractores de derechos de autor obtienen mejores clasificaciones", con lo que Google estaba en el extremo receptor de las críticas del espectador. En el tercer mes del año de dos mil doce, se actualizó Panda y se introdujo una "penalización por exceso de optimización", lo que provocó que los rastreadores web sean más responsables e inteligentes que antes. Ahora, los sitios que parecían ser demasiado atractivos para los rastreadores, fueron penalizados, sin embargo, legítimamente se consiguió el posicionamiento web en buscadores.

 En septiembre de 2012, se lanzó la próxima actualización de Panda (que afecta a alrededor del 0,7 por ciento de las consultas). Y el último se lanzó el veintidos de enero de dos mil trece, afectando a casi el doce por ciento de todas y cada una de las consultas en inglés.

 Las actualizaciones de Penguin en orden cronológico son:

 La actualización de Penguin 1 tenía como objetivo obtener un mejor control sobre los sitios que mandaban correo no deseado a sus resultados a través de la compra de links o bien obteniéndolos mediante redes de enlaces diseñadas para prosperar el ranking de Google. En este punto del tiempo, los sitios que habían eliminado links defectuosos o bien hecho esfuerzos para quitar el spam, recuperaron sus clasificaciones. Un sinnúmero de sitios, que escaparon ya antes, fueron penalizados esta vez, y sus clasificaciones se redujeron.

 Penguin once y Penguin 3 no añadieron mucho a Penguin 1. Solo hubo pequeños cambios. Pero, Penguin4, más popular como Penguin 2.0, ha traído cambios esenciales en la manera en que los algoritmos de Google están afectando el ranking de sitios web. Si bien la naturaleza precisa de los cambios no estaba clara, Penguin cuatro probablemente fue diseñado para combatir mejor el spam. Matt Cutts, jefe del equipo antispam en Google, anunció que "el alcance de Penguin varía según el idioma, por poner un ejemplo, los idiomas con más webspam tendrán un mayor impacto".

 Resumiendo, la lista de sitios que pierden visibilidad de búsqueda, según la compañía Search Metrics, incluye: sitios de juegos, sitios de pornografía, grandes marcas como Salvation Army, CheapOAir y ETS. Esto no señala grandes pérdidas de tráfico; Posiblemente sigan teniendo una alta visibilidad para las palabras clave que no se detectan. Mas, es importante tener en consideración que, las listas proporcionadas por Search Metrics y un par de otras compañías de software posicionamiento en buscadores son en su mayoría precisas.

 Ahora el hecho es que, incluso los administradores web de forma frecuente no son siendo conscientes de lo que está afectando a la clasificación de sus sitios web. Solo los ingenieros de Google tienen conocimiento de lo que está afectando las clasificaciones en el escenario actual y prosiguen actualizando a los usuarios de Internet sobre los cambios en los algoritmos de Google. Mas incluso no podrán mantener lo que será el futuro del posicionamiento web en buscadores y de qué forma cambiarán las técnicas de optimización y los factores de clasificación. ¡Que solo el tiempo lo dirá!

 No obstante, la herramienta Google Penalty Checker, diseñada por Fruition, ayuda a los SEO a descubrir qué género de impacto (por poner un ejemplo, positivo o negativo) tuvo una actualización particularmente en el sitio web, o sea, si aumentó (positivo) o bien disminuyó (negativo) las clasificaciones del sitio sobre los Search Engines Ranking Positions. La herramienta puede ser empleada de forma fácil por un novato en posicionamiento web en buscadores y es gratuita por un período limitado.

Si deseas tener más información acerca de posicionamiento web en Guadalupe entonces aprieta en el link para tener mejor información.