Conociendo los algoritmos de Google - La Máquina del SEO - Episodio 8

¡Octavo episodio!

Hoy vamos a pasar lista de los algoritmos que usa Google, qué es lo que hace cada uno, y cómo influyen a la hora de posicionarnos (o no).

Como siempre, me encuentran en @AndresKloster y se pueden registrar en andreskloster.com/podcast para no perderse ningún episodio. También estamos en iTunes y en iVoox, 🙂

Menciones del episodio 8 de La Máquina del SEO

 

Transcripción del episodio 8 de La Máquina del SEO

Hola a todos y a todas, bienvenidos sean una vez más a “La Máquina del SEO”. Mi nombre es Andrés Kloster de AndresKloster.com y @AndresKloster y en este episodio, episodio Nº 8, vamos a estar hablando de los distintos algoritmos que utiliza Google para posicionar.

Qué utiliza Google para definir qué página va primero, qué página va segundo, cuándo mostrar un mapa, cuando mostrar un resultado local, cuando mostrar una imagen y tantas otras cosas que hace Google cada vez que buscamos en menos de 100 milisegundos.

Somos SEOs y queremos saber cómo funciona Google internamente, que cuestiones toma en cuenta, que algoritmos intervienen a la hora de que un usuario realice una búsqueda, para poder rankear y atraer muchas visitas orgánicas relevantes para nuestros sitios y para los sitios de nuestros clientes.

Ahora vamos a estar hablando de eso, en un ratito nomas. Antes de eso, les cuento que, como siempre, se pueden suscribir a AndresKloster.com/Podcast, para recibir en su correo todas las novedades, todos los capítulos cada vez que sale un nuevo episodio, yo les voy a estar avisando.

Además al suscribirse se suman a todos los sorteos, descuentos que estamos consiguiendo y que, semana a semana, enviamos a través de nuestra forma de contacto con los oyentes que es el mail.

También estamos en Spotify, estamos en iTunes, estamos en iVoox y ahí nos dejan sus 5 estrellas, sus calificaciones positivas, se suscriben ahí, comentan si pueden, hacen lo que les deje esa plataforma y sea positivo…van y lo hacen!

Vamos a hablar entonces un poquito de los diferentes algoritmos que tiene Google y cómo han evolucionado a lo largo de la historia.

Bien, vamos a ver un poco de qué se trata esto de los diferentes algoritmos que tiene Google, como fueron surgiendo, la razón por la que fueron surgiendo cada uno de ellos a lo largo de la historia y cómo eso nos afecta como SEOs, y de que nos sirve tener este conocimiento sobre el funcionamiento interno de google.

Respondo primero esa pregunta: “de qué nos sirve tener un conocimiento de cómo funciona internamente Google?”. Bueno, es muy sencillo, cuanto mejor sepamos cómo funciona google y lo que google espera de sus resultados de búsqueda, mejor vamos a poder posicionar. Por eso es importante mantenerse actualizado de las diferentes actualizaciones que va trayendo google.

También es importante no solo tener información en cuanto a, a ver, cada nueva actualización tiene, se le va poniendo un nombre, a veces se le pone nombre oficialmente Google, a veces le ponemos los SEOs nombre para referirnos entre nosotros.

Ahora voy a hablar más adelante un poquito de eso, pero quiero decir, estar atento a cómo va evolucionando Google no es solamente saber el nombre de la última actualización y y poder decirlo, como en su momento algunos servicios SEOs decían servicio SEOs a prueba de Panda, Penguin, Colibrí etc, y solamente nombraban algoritmos que los cuales operaba Google.

Conocerlos es saber cuál es el espíritu de cada uno y que es en general a lo que está apuntando google. Y para saber qué es en general a lo que está apuntando google, tenemos que pensar cual es el desafío al que se enfrenta google como buscador desde que arrancó.

Básicamente, lo que quiere google, esto es algo extremadamente obvio, pero lo que quiere google es ofrecer resultados relevantes cada vez que un usuario hace una búsqueda.

Que cuando un usuario busca, google le devuelva resultados, idealmente el primer resultado que satisfaga lo que ese usuario estaba buscando: si quiere información, el mejor sitio informativo sobre lo que estaba buscando; si quiere comprar, el mejor sitio transaccional sobre lo que estaba comprando; si quiere ver un video, etc. No voy a poner todos los ejemplos porque creo que ya se entendió.

Y digamos, retrotraigámonos 10 años para atrás, 15 años para atrás, Google dijo ¿cómo hacemos para saber que un sitio es mejor que el otro?¿Cómo hacemos para saber que un sitio habla de una determinada temática? no es tan difícil, porque si alguien busca comprar celulares y un sitio se llama comprarcelulares.com, y pone un título que es “comprar celulares”, bueno, ya sabemos que habla de “comprar celulares”.

Digamos que esa cuestión, si bien avanzó muchísimo a lo largo de los años, conceptualmente estaba un poco zanjada. Pero ¿Cómo sabemos si hay dos sitios que hablan de “comprar celulares”, cuál es más relevante para la audiencia?

Como bien sabemos, la primer decisión que toma google, se podría decir de alguna manera, es ponderar con mucha importancia los enlaces, los links que circulan en internet, los hipervínculos.

Cuál es la filosofía detrás de esto? La filosofía detrás de esto, es: si yo tengo una web, una web A, bauticémosla así, que habla de una determinada temática como puede ser celulares, y enlaza a la web b que también habla de celulares, y además le pongo el anchor text “vean esta web que habla de celulares”, y ahí hago el enlace, Google dice, esta persona que habla de celulares está enlazando a otra web sobre celulares; seguramente esa otra web es relevante, y si mucha gente la enlaza como hago yo, A, con B, si además, C, D, F, todos la enlazan a B, bueno, B debe ser super relevante, vamos a posicionarla arriba.

Como verán, esto tiene un montón de fallas. La primer falla, en realidad, es que es super falseable. Que significa que sea super falseable? significa que yo puedo hacerle un favor a otra persona para que esa persona me dé un enlace, yo puedo intercambiar enlaces: le doy un enlace a la otra persona, la otra persona me lo devuelve a mí.

Un enlace cruzado: yo le doy un enlace a una web de otra persona, y esa otra persona, desde otra web, me da un enlace hacia mí para que no sea tan obvio, y yo le puedo pagar a otra persona para que esa persona me dé un enlace.

Entonces, alguien con un mal contenido, con una web que no responde lo que el usuario está buscando pone una torta de guita arriba de la mesa, compra enlaces, tiene más enlaces que la competencia, y, por lo tanto, si los enlaces es lo único que importa, va a posicionar mejor.

Así era google antes, era más fácil hacer SEO también.

A lo largo que fue avanzando Google, dijo “si yo me apoyó únicamente en los enlaces soy muy fraguable, soy mucho más fraguable de lo que podría ser. Tengo que perfeccionarme, tengo que encontrar otras métricas que yo pueda usar para determinar que una web es más relevante que la otra, que no sea únicamente los enlaces”.

Y ahí es donde entra en juego el contenido y donde entra en juego, también, las métricas de respuesta de usuario.

A medida que Google va evolucionando porque su tecnología también va evolucionando y también muchas de las cosas que Google fue implementando fue porque la tecnología avanzó y le permitió implementar esas cosas, no porque le faltara intención de implementarlas en, no sé, 2003.

Pero, por ejemplo, si google empieza a interpretar los contenidos y a interpretar que se está hablando de una determinada cosa, a pesar de que se la nombre por contexto, si empieza a darse cuenta qué temáticas convienen en textos largos, que temáticas convienen en textos cortos, empieza a actuar un poco más como un humano, los contenidos pueden ser parte de estas variables que google toma en cuenta.

Estimo yo, que algún Ingeniero de Google habrá pensado (Esto lo hable en el Episodio Nº2 van a AndresKloster.com/Episodio2) ¿por qué no hacemos que si alguien entra a una web, y sale, y entra a otra web, perjudicamos a la primer web porque significa que no encontró el usuario lo que estaba buscando?¿Porque no hacemos que si una web informativa se pasa mucho tiempo en esa web revisándola, lo tomamos como un efecto positivo, porque esa persona está revisando mucho la web, está navegando dentro de la web, por qué no empezamos a utilizar todo eso como factores positivos?

A su vez, a medida que entran en juego más y más factores, se hace más difícil engañar a Google. Porque, todos esos factores, intervienen entre sí, y al ser más se pueden trabajar de una forma también más inteligente. Hoy en día, si bien los backlinks siguen teniendo influencia, no es como en su momento que era cantidad de backlinks o cantidad sobre fuerza de los dominios de donde vienen esos backlinks. Hoy entran en juego un montón de cosas como puede ser la temática, el tráfico que atrae un backlink, que en su momento influyen muy hasta ahí. Entonces, cuanto más variables entran en juego, más difícil es engañar a Google para nosotros, y más herramientas tiene Google para mostrar un resultado que le interesa al usuario.

Lo que intenta Google es que, para los SEOs, sea más rentable satisfacer al usuario que tratar de engañar a Google sin pensar en el usuario.

Ese es el objetivo último de Google, y lo está logrando cada vez mejor. Siguen habiendo un montón de mierdas posicionadas, pero me atrevo a decir que cada año son un poco menos que las anteriores.

¿Cómo trabaja Google search? ¿Cómo trabaja el algoritmo de búsqueda entendido como todo lo que opera para posicionar una web? Trabaja parcelado en distintos pequeños algoritmos y distintas pequeñas actualizaciones.

Si bien el algoritmo, el Core, el corazón de Google todos los años es actualizado cientos y cientos de veces con pequeñas actualizaciones, cada tanto meten un boost de actualizaciones más importante que afecta a muchas más webs y que a lo mejor cambia un poquito la dirección en como venía posicionando hasta entonces.

Y como sabemos que hay una nueva actualización o que hay un nuevo algoritmo de google que está interviniendo en las búsquedas? Básicamente hay tres posibilidades.

La primer posibilidad es que Google lo anuncie. Cuando lanzó Google Panda que es uno de los algoritmos para penalizar contenido de baja calidad, Google dijo “Miren, esto se llama Google Panda, y funciona así”.

Hizo lo mismo con Penguin. Hizo lo mismo hace poquito con Mobile-First Indexing, no sé si decirle “algoritmo”, pero sí, se podría decir que es como un algoritmo que prioriza lo que se ve desde el celular, desde el móvil, por sobre lo que se ve desde la pantalla del escritorio, entendiendo que la mayoría de los usuarios ya navega desde el mobile y no desde el desktop.

Mobile-First Indexing, Google lo anunció hace un par de años, diciendo que a partir de tal momento, que después lo fue posponiendo pero ya entró en vigencia, iba a analizar primero la versión mobile. Lo anunció y ya.

La segunda posibilidad es que los usuarios se den cuenta que hay algo raro. Los usuarios no, los SEOs, los dueños de webs, se dan cuenta que las web empiezan, como se decía en su momento, a bailar, Google Dance, se mueven mucho los resultados de búsqueda.

“Apa… acá me parece que hay una actualización, me parece que hay un nuevo algoritmo o una actualización de uno ya existente”. Y le preguntan a algún vocero de google, y este vocero de Google, o vocera, dice “si, es verdad, hay un nuevo algoritmo, estuvimos toqueteando algunas cosas”.

Por ejemplo hace poco la última actualización reciente, importante, que fue Fred, los usuarios webmaster empezaron a detectar que las webs se movían mucho, le terminaron preguntando a Gary Illyes por la actualización y Gary dijo “si, jaja, se llama Fred”, así, medio en chiste. Después dijo “no, no es un anuncio oficial”, no sé qué. Pero básicamente fue un anuncio oficial. Entonces los usuarios lo encuentran y Google lo confirma.

Y la tercera opción de un cambio de algoritmo o de un movimiento importante en la forma de posicionar es que los usuarios encuentren que hay demasiado movimiento y Google nunca lo confirma. Google dice “no, no pasa nada… está todo más o menos igual”.

Pero digamos, a través de herramientas como BigData, a través de herramientas que operan con Big Data, como puede ser SEMrush, cómo puede ser Ahref, que ven billones de URL todos los días y ven como esas billones de URL se mueven en las SERPs se puede establecer, que en tal temática, tal dia, se movieron 140% más que el resto de las temáticas, así que me parece que hay una actualización que está afectando a esta puntual temática y además la afecta de esta manera y de esta manera. Nosotros ya empezamos a poder estar un poquito menos a ciegas con respecto a los movimientos que hace google.

Pero bien, esas son las formas de entender que hay un nuevo algoritmo o una nueva actualización, incluso esto de los usuarios se dan cuenta, ya les digo, antes era muy intuitivo.

Yo me acuerdo año, no sé, 2010, que se movían mis nichos y yo entraba a un foro, entraba a Foro Beta que era, es todavía, uno de los foros más importantes de lo que es la comunidad SEO y yo en Foro Beta ponía, “Se están moviendo mucho mis nichos. Me parece que hay una actualización”, y otro ponía, “ay, mis nichos también”, y otro ponía, “no, mis nichos no”. Era una cosa muy casera, muy rudimentaria, muy poco científica.

Hoy en dia tenemos herramientas como SEMrush, SEMrush sensor, que es básicamente un sensor sísmico de actividad en las páginas de resultados de búsqueda, que tiene un índice de 0 a 10, según que tanto se están moviendo los resultados de búsqueda.

Porque entendemos que si un dia se mueven muchísimo significa que Google está toqueteando, y eso funciona en tiempo real, analizando billones y billones de búsquedas. Es otro nivel, de a poquito vamos teniendo cada vez más información.

Ahora vamos a ir con un listado de los principales algoritmos y para qué sirve cada uno de ellos que actualmente operan en google, para que nunca más en una conversación SEO queden mal porque se refieran a algún tipo de algoritmo y no lo conozcan.

El algoritmo número 1: Hummingbird o Colibrí. Es el algoritmo Core, el algoritmo central de google, el que centraliza a todos los otros algoritmos y en definitiva, determina que posiciona a una página por encima de la otra. Es el algoritmo central.

Google Panda. Siempre le ponen nombres de animales, bueno, no siempre, pero la mayoría le ponen nombres de animales porque los de google son medio creativos, supongo. Por ejemplo, Hummingbird le pusieron así porque dicen que “es tan preciso como un colibrí”. Panda no sé porqué le pusieron porque no tiene mucho sentido que se llame Panda, seguramente hay algún tipo de explicación.

Google Panda rastrea la web en búsqueda de sitios con contenido duplicado, sitios con contenido de baja calidad, sitios con contenido, con poco contenido, con thin content, más páginas irrelevantes que se duplican entre sí, las backdoors donde muchas páginas son idénticas solamente cambiando una palabra para atacar a muchas Keywords. En otro capítulo vamos a hablar un poquito de eso porque hice unos experimentos hace unos años, un montón de nichos con esas técnicas que funcionaban y llegó Panda, y reventó todo eso.

Eso hace Google Panda, bien? Tiene varias actualizaciones importantes, se lanzó en 2011 si mal no recuerdo, y reventó una cantidad de webs de baja calidad que realmente… hermoso. Me afecto un poco, pero la verdad es que fue hermoso porque fue un gran avance a la hora de google entender un poco mejor la web y poder posicionar páginas relevantes.

Entonces, cuando alguien dice “me penalizó Panda”, se refiere a que “tengo una penalización algorítmica, no manual, que tiene que ver con los contenidos”. Como se sale de una “penalización de Panda”? optimizando los contenidos.

Después tenemos Google Penguin que es como el hermano de Google Panda, son dos animales blancos y negros, creo que es lo único que tienen en común para decir que son hermanos. Penguin es el encargado de encontrar y penalizar, así como Panda encuentra y penaliza sitios con contenido de baja calidad, Penguin encuentra y penaliza sitios que tienen enlaces entrantes sospechosos, es decir que parecen creados automáticamente, porque son creados automáticamente, que se crean muchísimos de una forma muy rápida y desde sitios que no tienen mucho que ver.

Ese tipo de patrones los encuentra y penaliza o al menos evita que esos patrones sirvan para posicionar. Es un algoritmo que también tuvo varias actualizaciones, ya google dijo que está implementado dentro del Core, dentro de Hummingbird pero lo que hace es filtrar toda la parte de enlaces para que nos sea más difícil aún, si bien todavía se puede y se hace, el linkbuilding puede influir en los resultados de búsqueda. Eso es Penguin.

4. Pirate, Pirata. Un poquito menos conocido en definitiva porque los que nos movemos en temáticas legales o aceptadas por AdSense, que no lo conocemos tanto pero es un algoritmo que opera con las webs de contenido ilegal, las webs de contenido que no respetan los copyright, por ejemplo.

Después tenemos el Google Pigeon, que es “paloma” en inglés. Opera en las búsquedas donde aparecen resultados locales. Cuando aparecen resultados locales junto con el mapa, ahí opera este algoritmo y determina qué web va arriba, que web va abajo, utilizando sus propios parámetros ya que por ejemplo las calificaciones positivas influyen en los resultados locales, las calificaciones positivas en un local por ejemplo influyen en los resultados locales pero no influyen en los resultados orgánicos, comunes.

Después tenemos PageRank, como olvidar a nuestro querido PageRank ¿Porque digo “nuestro querido PageRank? porque es el primer algoritmo que implementó google que tenía en cuenta únicamente, y que en su momento funcionó como el algoritmo central, que tenía en cuenta solamente los enlaces entrantes que recibía una web.

Como les contaba al principio, los enlaces entrantes eran el factor predominante por excelencia al principio, a la hora de posicionar por Google. Y PageRank sigue operando, si bien algunos dicen que PageRank está muerto. No está muerto, confirmado por fuentes oficiales en varias ocasiones, lo que sí está muerto es el puntaje de PageRank en su momento lo mostraba google oficialmente, que iba de 0 a 10, y que mostraba en teoría la fortaleza de una web.

Ese puntaje, si, dejo de actualizarse pero el PageRank como algoritmo forma parte de Hammingbird, y se ocupa de entregar valor a una web en función de los enlaces entrantes que recibe sin tener la importancia que tenía hace varios años.

Y luego tenemos RankBrain, o como dice mi amigo Dean Romero: “Rank-Braian”. Que lo que hace es un algoritmo en Machine Learning que entiende la búsqueda que está realizando un usuario para ofrecerle un resultado que tenga que ver con lo que está buscando, más allá de lo que dice esa palabra puntualmente.

A ver, me explico con un ejemplo. Un ejemplo que ya utilicé en el pasado pero me parece bastante atinado: si yo busco “horario mundial”, estoy buscando la hora en el mundo, digamos, un sitio que me muestre los husos horarios o estoy buscando la hora en la cual se va a jugar la Copa del Mundo de Rusia 2018? Bueno, Google sabe que estoy buscando la segunda, estoy buscando los horarios de Rusia 2018. Entonces, me va a mostrar esos resultados y para eso lo que hace, interviene Rankbrain operando sobre búsquedas pasadas mías, y sobre búsquedas pasadas de otras personas para ir entendiendo, digamos, si yo buscaba eso y me mostraba husos horarios, probablemente volvía a buscar “Copa del Mundo” o ponía “Mundial Rusia 2018”. Y ahí RankBrain decía… “ah, claro, vos querías… discúlpame. Flashee, ahí te paso lo que estabas buscando”, y eso es un poco cómo opera Rankbrain.

Y para esto quiero hacer una digresión con respecto a Rankbrain. Yo hace poco estuve en el blog, justamente, de Dean Romero en Blogger3cero, hablando, puntualizando y profundizando sobre este algoritmo, sobre Rankbrain. Una discusión bastante interesante en los comentarios.

Yo opino que Rankbrain no posiciona. Yo opino que Rankbrain lo que hace no es ordenar los resultados de búsqueda, sino entregar un listado de resultados de búsqueda u otro, entendiendo la query que está realizando el usuario.

En los comentarios, algunas personas, algunos otros SEOs me discutían con argumentos más que válidos que en realidad “no”: en realidad Rankbrain si tiene que ver con cómo google entiende la parte más conceptual-semántica de una web… no solo de las búsquedas y en función de eso, también interviene sobre los resultados de búsqueda.

En definitiva, tanto yo como quienes acordaban conmigo y quienes no acordaban conmigo, estábamos más o menos de acuerdo en el concepto, lo que pasa es que no coincidimos hasta qué punto operaba Rankbrain y hasta qué punto operaba, digamos Hammingbird u otro algoritmo.

Entonces, también esto es importante, estos nombres son, es importante saber, porque si te penaliza Panda tenes que actuar de una manera, si te penaliza Penguin tenes que actuar de otra. Y más que nada es importante ponernos de acuerdo conceptualmente sobre qué es importante, y sobre que no, valga un poco la redundancia. No importa en definitiva hasta qué punto algo es Rankbrain y hasta qué punto Hammingbird o hasta qué punto… mientras entendamos que Google es un factor que lo está tomando en cuenta, y si lo está tomando en cuenta mucho, si lo está tomando en cuenta poco.

Entonces también esta discusión, si bien es super importante, uno se termina haciendo historia entre dos personas que están de acuerdo, justamente en estos comentarios. A lo cual digo “bueno, estamos de acuerdo”, yo estoy dispuesto a resignar hasta qué punto influye un algoritmo y hasta qué punto otro, mientras estemos de acuerdo en que influye.

Si bien es super importante entender de qué va cada algoritmo, más importante es entablar la dirección que está tomando Google en su conjunto y cómo podemos usar eso como SEOs para ofrecerle algo bueno a los usuarios, y principalmente que se repercuta en visitas para nuestro sitio.

Y eso ha sido todo por hoy, mis queridos amigos y mis queridas amigas, mi nombre es Andrés Kloster, esto es “La Máquina del SEO”, como siempre, encuentren este episodio en AndresKloster.com/Episodio8, y se suscriben en AndresKloster.com/Podcast para recibir todas las novedades y beneficios de la comunidad de La Máquina del SEO en su mail.

Y nos vemos en el próximo episodio de La Máquina del SEO.