Google adaptará su algoritmo para mostrar primero las webs seguras

Compártelo
Rate this post

En su batalla contra la inseguridad en Internet, Google vuelve a modificar su algoritmo de resultados en su motor de búsqueda. Así pues, mostrará en un ranking superior las webs que hayan adaptado sus conexiones al standard HTTPS frente a las que sólo tengan HTTP. Con esto intentan premiar a los webmasters que vayan adaptando sus sitios web.


De momento no hay que lanzar el grito al cielo ni culpar al gigante de las búsquedas si tu web no aparece entre las primeras ya que Google asegura en un comunicado que esta decisión afectará, por el momento, a menos del 1% de las búsquedas globales. De todos modos su aplicación será gradual hasta ser total dentro de un tiempo no determinado.
La compañía asentada en Mountain View ha confirmado, además, que sus servicios de búsqueda, Gmail y Drive ya cifran los datos que fluyen entre sus servidores y sus usuarios como consecuencia de las revelaciones de Edward Snowden y en una apuesta por los gigantes de internet por la seguridad y la privacidad. Algo que debería preocuparnos a todos nosotros y no solo a unos cuantos. Esta actualización tiene un carácter más técnico que la última que se produjo, dondeHummingbird pretendía ser un cambio de paradigma en las búsquedas.
La jugada de Google se entiende como un incentivo para los webmasters que primero se muevan y pasen sus sitios a HTTPS y como un desmarque de la competencia. Los otros buscadores que compiten en este terreno, Bing y Yahoo, de momento no se han pronunciado en ningún término y, por tanto, podrían permanecer «inseguros» de no adoptar medidas similares a las del gigante informático.
De entrada hay una lista de recomendaciones, como la elección del tipo de certificado (simple, multi-dominio, o certificado comodín), uso de certificados de 2048 bit, usar URLs relativas para recursos que residan en el mismo dominio seguro y en todos los demás dominios, no bloquear el rastreo mediante el uso del fichero robots.txt en los sitios cifrados con HTTPS, permitir la indexación de las páginas por parte de los motores de búsqueda cuando sea posible, evitar el meta tag «robots noindex» (<META name=»ROBOTS» content=»NOINDEX, NOFOLLOW»>), y alguna cosa más.
Para los sitios pequeños el cambio de HTTP a HTTPS no resulta complicado, pero para las grandes organizaciones que ejecutan un buen número de servidores, la cosa cambia. Esta iniciativa puede dar un empujón para que el cambio a HTTPS se acelere, porque falta hace.
LKBU FBPP – Fuente1 Fuente2
Compártelo