WhatsApp: Nueva función «anti-estafas» ¿Cómo evitar caer en trampas con inteligencia artificial?

COMPARTIR NOTICIA

WhatsApp habilitó una nueva función «anti-estafas»: cómo evitar caer en trampas con inteligencia artificial
WhatsApp, el servicio de mensajería más popular de los celulares, tomó nota y resolvió un pedido recurrente por parte de los usuarios argentinos: terminar con las estafas digitales. Para ello, anunció nuevas funciones para detectar y frenar engaños que circulan en su plataforma, muchas veces con mensajes que prometen dinero rápido o ganancias por tareas sencillas.

Estas medidas llegan en un momento clave para la compañía tecnológica Meta, en un contexto donde las campañas delictivas de los ciberdelincuentes son cada vez más refinadas e indescifrables, utilizando inteligencia artificial (IA), datos filtrados y técnicas de manipulación emocional e ingeniería social para engañar a miles de usuarios.

Según la empresa de ciberseguridad Kaspersky, los esquemas fraudulentos que se detectan en WhatsApp responden a un patrón cada vez más sofisticado, algo que WhatsApp registró en los últimos tiempos y tomó duras medidas al respecto, muchas de ellas en colaboración a los reclamos de sus usuarios.

La plataforma eliminó más de 6.8 millones de cuentas fraudulentas en lo que va del año, en su mayoría vinculadas a centros de estafa organizados internacionalmente.

El contacto inicial muchas veces ocurre en redes sociales, apps de citas o por SMS, y luego el usuario es dirigido a WhatsApp, donde recibe mensajes diseñados con IA que prometen trabajo remoto, oportunidades de inversión en criptomonedas, falsas entregas de encomiendas, campañas de ayuda social o pagos por tareas simples como dar «Me gusta» en TikTok.

“La automatización de los ataques y la confianza que los usuarios tienen en WhatsApp hacen que las estafas se propaguen con facilidad”, explica Fabio Assolini, director del Equipo Global de Investigación de Kaspersky para América Latina.

La mayoría de estos mensajes son diseñados con inteligencia artificial para sonar creíbles. De hecho, WhatsApp señaló como ejemplo un caso en el que colaboró con OpenAI, la empresa propietaria de ChatGPT, para desmantelar un centro de ciberestafas en Camboya: los estafadores usaban ChatGPT para generar un mensaje inicial en diversas lenguas con un enlace a una conversación y una oferta falsa.

Los estafadores virtuales incluso utilizan datos reales del usuario para lograr su objetivo: nombres, DNI o historial de compras online, lo que los vuelve aún más difíciles de detectar.


COMPARTIR NOTICIA

Compruebe también

Obesidad y depresión infantil: qué impacto puede tener el uso de celulares antes de los 12 años

Obesidad y depresión infantil: ¿Qué impacto puede tener el uso de celulares antes de los 12 años?

COMPARTIR NOTICIA Un estudio realizado en más de 10.000 adolescentes identificó que las consecuencias de …

Déjanos tu comentario