Sí. Usamos un par de cookies, y una ni siquiera es nuestra. Deberá aceptarlas para evitar este mensaje que mostramos por imperativo legal

“Google se centra en su Knowledge Graph para evaluar los sitios web”, noticia en Interdixit

Diseño + Desarrollo. Multimedia. Web. Comunicación. Grafismo. Arte

Noticia: “Google se centra en su Knowledge Graph para evaluar los sitios web” de la sección Posicionamiento web

Google se centra en su Knowledge Graph para evaluar los sitios web

Nuevamente la Guía de Calificación de sitios web de Google se ha filtrado. El texto supone la reescritura por completo de las cuatro ediciones anteriores y se centra en la construcción del Knowledge Graph —el árbol terminológico de temas que aborda un sitio—, la identificación de la pericia, autoridad y confianza en los contenidos, y la valoración específica de contenido secundario al principal: secciones, despieces.

La Guía de Calificación es el manual de trabajo de los miles de verificadores que Google subcontrata en todo el mundo para realizar manualmente la evaluación de sitios web. En ella se contienen las normas de valoración de los contenidos, de la tecnología utilizada y los baremos que permiten puntuar al alza o penalizar un sitio web.

El texto filtrado ahora —como los anteriores— se publicó hace tres meses. Mantiene como criterios de valoración especial de un sitio la identidad del autor y la reputación de ambos, pero introduce un nuevo eje que cobra especialmente importancia: pericia, autoridad y confianza (EAT, en sus siglas en inglés) de los contenidos.

Árbol semántico de temas que aborda el sitio
Los verificadores manuales tienen una mayor intervención en la construcción del Knowledge Graph correspondiente al sitio que analizan. Antes sólo podían identificar los denominados TLRB y NTLRB (conceptos básicos ubicados en el titular principal de la página y con un enlace de destino y la ausencia del enlace, respectivamente). Ahora tienen mayor libertad para proponer clasificaciones temáticas, abriendo el abanico de asuntos que puede abordar un mismo sitio.

Para ello, el manual recomienda estudiar el contenido generado por los usuarios (UGC) en foros y réplicas al contenido principal, porque permite determinar el grado de pericia de los autores del sitio, identificar giros temáticos y obtener pistas sobre la reputación global del dominio.

Aún así, recomienda considerar el UGC con toda cautela, ya que no siempre aporta a la página.

El árbol temático del sitio se enriquece, además, con el análisis del contenido secundario al principal en cada página. A partir de ahora se valoran secciones y despieces que están vinculados al contenido principal y que aportan nuevos puntos de vista. Se valora, en los apartados comerciales, el retargeting o la ampliación de la información correspondiente a las marcas de los productos comercializados.

Contenido obligatorio mínimo de una página
Uno de los aspectos que llama la atención es la invitación a localizar el contenido mínimo y obligatorio de una página antes de proceder a su evaluación. Según el manual, una página tiene que tener una identificación de los propietarios y de su trayectoria (un quiénes-somos), alguna forma de contacto y un aviso legal. Si se trata de una web comercial, debe tener páginas obligatoriamente en las que se indique cuál es su política comercial o, como mínimo, cuál es la política de desistimiento y devoluciones.

La guía exige ahora un análisis de la publicidad publicada y de las intenciones del diseñador/programador.

Si un verificador considera que la página tiene un exceso de publicidad o esta es muy intrusiva, obligando al usuario a desplazarse por la pantalla para acceder al contenido, penalizará la página. También la penalizará si intuye que se ha construido para que un usuario tenga obligatoriamente que hacer clic en algún apartado ajeno al contenido que busca.