Google usa IA en Search para bloquear millones de estafas
El nuevo informe “Fighting Scams on Search” (Combatiendo las estafas en la Búsqueda), detalla cómo Google emplea grandes modelos de lenguaje para impedir que cientos de millones de resultados fraudulentos lleguen a los usuarios cada día.
Google ha publicado el informe “Fighting Scams on Search” (Combatiendo las estafas en la Búsqueda), un compendio que revela cómo la compañía aprovecha la inteligencia artificial (IA) de última generación para frenar la aparición de sitios fraudulentos en su buscador.
Según el documento, los nuevos sistemas basados en grandes modelos de lenguaje (LLM) bloquean cientos de millones de resultados dañinos cada día, preservando la confianza de los usuarios en la relevancia y seguridad de Search.
De los filtros clásicos a los modelos de lenguaje
Los algoritmos tradicionales de clasificación ya detectaban patrones sospechosos, pero la sofisticación creciente de los ciberdelincuentes obligó a Google a reforzar su arsenal.
En los últimos tres años, la compañía lanzó varias versiones de sus sistemas anti-scam guiadas por IA: los LLM analizan enormes volúmenes de texto, “leen” matices lingüísticos y descubren redes enteras de dominios conectados que, aislados, parecerían legítimos. Gracias a esta capacidad, Google detecta 20 veces más páginas fraudulentas que antes de incorporar estos modelos.
Además, la naturaleza multilingüe de los LLM permite replicar protecciones en decenas de idiomas. Cuando el sistema identifica una estafa en inglés, la señal se propaga a español, alemán o hindi, bloqueando campañas globales con una sola actualización.
Respuestas rápidas a tendencias emergentes
El informe destaca la velocidad de reacción frente a picos de actividad maliciosa. Un ejemplo: al detectar un aumento de resultados falsos que ofrecían números de atención al cliente de aerolíneas, Google implementó defensas específicas y redujo más del 80 % ese tipo de estafas.
Del mismo modo, la suplantación de sitios gubernamentales —como portales de visados— cayó en más del 70 % en 2024 gracias a ajustes dedicados.
Recomendaciones para usuarios vigilantes
Aunque el buscador se mantiene 99 % libre de spam, Google recuerda que la prevención definitiva es una responsabilidad compartida. El informe ofrece consejos prácticos:
- Revisar dominios similares: los estafadores usan variantes como “.support” o cambios sutiles en la ortografía.
- Usar “Acerca de este resultado”: el menú de tres puntos junto a cada enlace ofrece contexto sobre la fuente antes de visitarla.
- Desconfiar de formatos extraños: tipografías inusuales, símbolos o emojis pueden indicar un sitio clonado.
Implicaciones para la industria
La escala de la infraestructura de Google proporciona una vista privilegiada sobre las tácticas de fraude digital. Su éxito al integrar IA en motores de defensa sugiere un estándar para otras plataformas con grandes volúmenes de contenido generado por usuarios.
Además, el uso de LLM multilingües demuestra que la lucha contra las estafas no puede limitarse a los principales idiomas ni a mercados aislados.
Mirada al futuro
Google afirma que seguirá “invirtiendo continuamente” en innovaciones de IA para anticipar nuevos vectores de ataque. A medida que los estafadores prueben técnicas basadas en la misma inteligencia artificial, el desafío será mantener la ventaja defensiva y ofrecer transparencia sobre el funcionamiento de estos filtros sin revelar detalles que los delincuentes puedan explotar.
Con miles de millones de búsquedas diarias, la misión de mantener un ecosistema limpio es titánica. Sin embargo, los datos presentados en este informe indican que la combinación de IA avanzada y ajustes específicos en función de tendencias emergentes está marcando una diferencia tangible en la seguridad de los usuarios que confían en el Buscador de Google para sus actividades cotidianas.
Entradas Relacionadas: