Cualquier búsqueda en Google de una gran noticia o de un
fenómeno viral devuelve muchos resultados. Es casi imposible saber quién
fue el primero en contarlo, quién invirtió el tiempo en investigarlo o
escribirlo por primera vez, y sin embargo todos esos resultados de
Google compiten entre sí por nuestro click en igualdad de condiciones,
como si tuvieran el mismo mérito.
La guerra sucia de
las búsquedas en Internet abarca todo tipo de técnicas. Una de ellas es
identificar temas de moda o asuntos relevantes en un momento dado,
localizar la fuente original de la información y replicar el contenido, a
veces disimuladamente y otras veces con un copia-pega más descarado. La
intención en estos casos no es la de hacerse eco de una noticia
relevante, como también sucede en los medios digitales, sino
sencillamente intentar arrebatar a la fuente original el tráfico que
llega desde las búsquedas.
Google dice que quiere acabar con eso. A través de Richard Gingras, vicepresidente de Noticias de la compañía, anuncian su intención
de primar los artículos y los reportajes periodísticos que provengan de
las fuentes originales desde donde se publican para que permanezcan más
tiempo en las primeras posiciones de las búsquedas. De esta forma, las
webs que se dedican a rebotar los contenidos se verán perjudicadas.
"Debería
ser un cambio útil para el periodismo", explica Rodrigo Laso, experto
en SEO y analítica web en eldiario.es. "Pero hay que ver cómo hacen el
algoritmo, suelen hacer mucha prueba/error", continúa. Google asegura a
través de Gingras que realizarán cambios en sus productos "en todo el
mundo" para destacar "los artículos que identificamos como reportajes
originales significativos".
El cambio premiaría el esfuerzo de publicar contenido
original y no, como hasta ahora, la rapidez en replicarlo de manera
optimizada para los buscadores. Según los expertos, además de los medios
digitales que más apuestan por la información, es previsible que los
medios locales y con menor difusión que los grandes periódicos también
se vean beneficiados por la medida, ya que hasta ahora si alguno de
estos publicaba una exclusiva era rápidamente replicada por las agencias
de noticias o eran copiadas por otros medios de mayor tirada.
Finalmente, los que aparecían en las primeras posiciones en los
resultados de búsqueda de Google eran estos y no las fuentes
primigéneas.
Laso pone un ejemplo relacionado con un artículo reciente de eldiario.es que explicaba qué empresa fabrica la mayoría de croquetas congeladas en nuestro país:
"Al día siguiente el tema estaba en varios medios y luego más webs", y
esas páginas aparecían por encima del artículo original incluso haciendo
búsquedas muy específicas.
"Está claro que las copias no deberían estar
nunca por encima del artículo original", dice Laso. "Siempre se hacen
artículos citando a otros artículos", cosa que es una práctica habitual
en el periodismo digital con fines informativos, "pero ahora se estaban
haciendo en muchas ocasiones con el objetivo de desbancar al original y
quitarle el tráfico desde Google", explica. "El cambio, si funciona,
desincentivará en teoría hacer este tipo de cosas".
Habrá
que darle margen a Google para saber si de verdad se trata de una buena
idea o todo sigue como hasta ahora. Al menos, la multinacional promete
que estará atenta a los cambios: "Nuestros esfuerzos evolucionarán
constantemente a medida que trabajemos para comprender el ciclo de vida
de una historia".
"Si penalizan medios que dan muchas fake news
y si valoran más a los medios que no las dan, pues va a ser muy
beneficioso para el usuario", continúa Laso. Pero nadie sabe cómo
funciona en la práctica el algoritmo de Google: es lo que comúnmente se
denomina como black box (o caja negra, en castellano), un concepto utilizado sobre todo en Inteligencia Artificial para referirse a las redes neuronales y los algoritmos con los que son programadas.
Hay
una novedad importante para Google: un equipo de más de 10.000 personas
será el encargado de vigilar y corroborar que el cambio en el algoritmo
funciona. Para ello, Google ha actualizado sus directrices para la
evaluación de la calidad en las búsquedas, un documento de 167 páginas
que los evaluadores, distribuidos por todo el mundo y subcontratados
por otras empresas, han de seguir para comprobar la calidad de las
búsquedas. "Sus comentarios nos ayudan a entender qué cambios hacen que
la búsqueda sea más útil", explica la multinacional.
Aseguran que su feedback
no cambia "el ranking de los resultados específicos que revisamos; en
vez de eso, es usado para evaluar y mejorar los algoritmos de manera que
se apliquen a los resultados". Este equipo de 10.000 personas también
ayuda a Google a conocer en qué lenguaje está escrito una web o qué es
importante en ella.
La empresa usará a los evaluadores
para que categoricen a los medios. Serán ellos los que definan la
reputación de cada periódico, web o agencia de noticias que publique una
información relevante. "En teoría van a usar la reputación del medio,
pero a ver cómo son las tripas de esa reputación. ¿Hasta dónde se van a
meter? ¿Cómo van a penalizar?", advierte Laso. Otros de los criterios
será si es una noticia de última hora, en cuyo caso la promocionará.
(*) Periodista
No hay comentarios:
Publicar un comentario