El director del equipo de lucha contra el spam web de Google advierte que los spammers cada vez atacan más páginas web.
El director del equipo de lucha contra el spam web de Google, Matt Cutts, advirtió la semana pasada que los spammers cada vez entran en más páginas web de baja seguridad para así poder “jugar” con los resultados de los motores de búsqueda. Durante una conferencia de recuperación de información llevada a cabo en Boston, Cutts también discutió acerca de la forma en que Google afronta el creciente problema del spam de búsqueda.
El objetivo de los spammers de búsqueda es que sus páginas web ganen prominencia en los resultados de búsqueda, lo que les reporta beneficios por la venta de los productos que ofrecen estas webs, o por la publicidad que insertan en las páginas. Esta práctica, también conocida como “spamdexing,” se aprovecha de la forma en que los algoritmos de los motores de búsqueda deciden cómo clasificar las distintas páginas dentro de una misma solicitud de búsqueda. El algoritmo de clasificación de páginas de Google, por ejemplo, otorga prominencia a las páginas con muchos vínculos a otro tipo de material en la web. Los spammers se aprovechan de esto mediante la adición de vínculos a sus webs en los tableros de mensajes y foros, así como mediante la creación de páginas web falsas llenas de este tipo de vínculos. Garth Bruen, creador del software Knujon, que hace un seguimiento del spam de búsqueda que la gente denuncia, afirma que algunas campañas llegan a crear hasta 10.000 dominios distintos.
“Cada vez se nos da mejor lo de captar las páginas con spam,” afirma Cutts después de su charla, añadiendo que los spammers cada vez atacan a más webs legítimas y llenan sus páginas con vínculos de spam, o redirigen a los usuarios a otros sitios.
“La mejora en la seguridad de los sistemas operativos hace que los usuarios sean más conscientes a la hora de proteger sus equipos domésticos, y creo que los ataques de spam acabarán centrándose en los servidores web más desprotegidos,” afirmó Cutts. Espera que “esta tendencia continúe hasta que los webmasters y los propietarios de webs tomen precauciones para proteger también el software de los servidores web.”
“He hablado con algunos spammers que poseen grandes bases de datos llenas de agujeros de seguridad en páginas web,” afirma Cutts. “Cada vez hay más páginas web con vínculos creados por los hackers. Esta tendencia lleva activa desde hace un año o algo así, y creo firmemente que seguiremos sufriéndola.”
Bruen está de acuerdo. “Hemos visto un incremento en el mail basura y en dominios basura que no sólo venden productos ilícitos, sino que también intentan descargar malware e infectar los PCs de los visitantes,” señala. Este tipo de malware podría atacar el ordenador de una víctima sin que ella lo supiese, y usarlo para enviar mails basura desde ahí.
“Es realmente una carrera armamentística,” afirma Daniel Tunkelang, uno de los organizadores de la conferencia y el director científico de la compañía de búsqueda Endeca.
Para prevenir este tipo de ataques, Cutts recomienda que cualquier persona que dirija su propia página web ponga parches de forma habitual en el servidor web y en cualquier software que se ejecute en él. “Del mismo modo que no navegarías por internet con una copia de Internet Explorer sin parche, no deberías dirigir una página web con una copia sin parche, o antigua, de WordPress, cPanel, Joomla, o Drupal,” señala Cutts. También sugirió que los usuarios se pasasen al software web. “Si se utiliza un servicio basado en la nube, donde el software del servidor es administrado por alguien distinto, esto a menudo resulta más seguro,” afirmó.
Durante su charla, Cutts también explicó que los intentos de Google para identificar las páginas web dudosas ahora incluyen el análisis del código JavaScript que subyace en las páginas. Por ejemplo, este código puede esconder instrucciones ocultas que registran los datos de los usuarios.
“Para mí no era obvio que Google pudiera hacer esto,” afirma Tunkelang desde Endeca. “Y aparentemente algunos spammers decían que Google no era capaz de hacerlo.”
Cutts señaló que los spammers y los hackers también están encontrando nuevas formas de distribuir el spam gracias al surgimiento de redes sociales como Facebook y Twitter. Estos sitios “aportan identidad a la ecuación, pero realmente no tienen forma de verificar que el perfil o la persona que te envía el mensaje es realmente la persona que dicen ser,” señala Cutts.
“La autenticación [a lo largo de toda la web] sería algo muy positivo,” afirma Tunkelang. “El anonimato de internet, tan valioso por un lado, también puede ser motivo de muchos problemas.” El registro de las direcciones de correo antes de poder comentar en un blog es uno de los pasos que pueden tomarse en esta dirección, afirma, tal y como hace Twitter, que recientemente ha añadido una etiqueta de “verificado” al lado de los perfiles autenticados.
Danah Boyd, investigadora de Microsoft encargada del estudio de los medios sociales, sugirere que los spammers se aprovechan del hecho de que la gente no siempre se adhiere a las reglas de las web de redes sociales—por ejemplo, a veces proporcionan información falsa acerca de ellos mismos. “La variabilidad de los usuarios medios es precisamente de lo que dependen los spammers a la hora de intentar engañar al sistema,” señala Boyd. “Todos los usuarios están dando nuevos propósitos a los sistemas para que éstos satisfagan sus necesidades, y las reglas del juego de los spammers cambian constantemente. Esto hace que el trabajo de Matt sea muy complicado, aunque también muy interesante.