Desde elaborar textos creativos a partir de un simple comando hasta facilitar el diagnóstico de tumores, la inteligencia artificial (IA) sacudió los cimientos de todos los sectores del mundo y, durante 2023, demostró un potencial revolucionario sin precedentes que varias figuras de la tecnología y la innovación ven con buenos ojos.
Pero como toda tecnología emergente, la IA puede usarse tanto para el bien como para el mal. Esto tampoco se escapó de la mirada de los expertos, quienes pusieron la lupa sobre su impacto en el ámbito de la ciberseguridad.
En efecto, la firma especializada en seguridad informática Kaspersky reveló que, apoyados por la IA, los ataques de phishing aumentaron un 617% en América Latina en el último año. Es decir, se presenció un repunte significativo de aquellas estafas en línea en las que los atacantes se hacen pasar por entidades de confianza como bancos, empresas o servicios populares, para obtener información confidencial como contraseñas, números de tarjetas de crédito o datos personales.
Kaspersky registró 286 millones de intentos de ataques de phishing en 2023. «Llama la atención que el incremento se debe, entre otros factores, a la aparición de herramientas que utilizan la inteligencia artificial para facilitar la creación de estafas de forma automatizada», detallaron los expertos.
El mal uso de la IA
Tal como un estudiante puede acercarse a un chatbot de IA y exigirle que redacte un artículo sobre las condiciones políticas y económicas que llevaron al estallido de la Segunda Guerra Mundial, cualquier ciberdelincuente puede hacer uso del modelo de lenguaje artificial, pero para fines mucho más oscuros. Un caso ejemplar sería pedirle a la máquina que imite el formato de una carta bancaria para escribir un mail que suene lo suficientemente convincente como para que el receptor ingrese datos personales a modo de solucionar una presunta falla en su cuenta.
Con algoritmos de aprendizaje automático, la IA implementará construcciones gramaticales formales, sin errores de ortografía y posiblemente con detalles personalizados (si el estafador ingresó datos adicionales de la víctima); todos signos que, ante su ausencia, eran la alerta predilecta para identificar un caso de fraude. Ahora, con la aparición de ChatGPT y otras herramientas de IA capaces de generar textos persuasivos, será necesario afilar más el ojo, ya que es probable que no se encuentren más descuidos ortográficos en los ataques de phishing.
El riesgo de los deepfakes
Para ponerlo en palabras simples y breves, la IA facilita la producción y distribución de mensajes engañosos, además de la suplantación de identidad de personas específicas. De hecho, los expertos de Kaspersky también alertaron sobre la creciente amenaza de los deepfakes; los contenidos donde imágenes y videos son alterados para mostrar información diferente a la original para, por ejemplo, que una persona aparezca diciendo o haciendo cosas que nunca hizo.
A pesar de que la propagación de este chantaje puede afectar tanto la reputación como las finanzas de instituciones y usuarios, cifras de la compañía revelan que la mayoría de los latinoamericanos no sabe qué es un deepfake (70%) y no sabría reconocer un contenido de este tipo (67%).
En este sentido, la firma de ciberseguridad señaló que una de las medidas para evitar un engaño vinculado a nuevas tecnologías es estar al tanto de desarrollos más recientes y sus riesgos potenciales. Además, es necesario que los usuarios actúen con cautela y escepticismo ante correos electrónicos, mensajes de texto o voz, llamadas, videos u otros contenidos multimedia, aunque parezcan muy confiables.