El redactor senior de la prestigiosa revista WIRED, Will Knight, encendió las alarmas sobre el avanzado nivel de ingeniería social y manipulación que han alcanzado diversos modelos de Inteligencia Artificial (IA). Tras participar en un experimento especializado, el periodista documentó cómo estas herramientas digitales son capaces de orquestar ciberataques y estafas masivas con una precisión sorprendente.
Durante la prueba, Knight fue blanco de una serie de mensajes automatizados, diseñados íntegramente por el modelo de código abierto DeepSeek-V3, los cuales buscaban persuadirlo para hacer clic en un enlace malicioso que otorgaría control total de su equipo a un hipotético atacante.
Según relató el experto, el sistema empleó una táctica personalizada que apelaba a sus intereses específicos, como la robótica y el aprendizaje automático, mencionando incluso proyectos vinculados a la agencia Darpa de Estados Unidos para generar una falsa sensación de credibilidad.
La ofensiva se ejecutó mediante una plataforma de la firma Charlemagne Labs, la cual permite simular roles de atacante y víctima entre distintos modelos de IA para evaluar sus vulnerabilidades. En este ensayo se pusieron a prueba sistemas como GP-4o de OpenAI, Claude 3 Haiku de Anthropic, Nemotron de Nvidia y Qwen de Alibaba.
Aunque Knight señaló que algunos modelos presentaron fallas o se negaron a realizar acciones fraudulentas por sus filtros de seguridad, destacó que la tendencia de la IA a la «adulación» el hábito de congraciarse con el usuario en la conversación la convierte en un instrumento ideal para el engaño.
Al respecto, Rachel Tobac, directora de SocialProof, ratificó que los delincuentes ya están sacando provecho de estas capacidades para clonar voces, fabricar videos falsos y automatizar mensajes de phishing, lo que representa un desafío sin precedentes para la seguridad digital global.
Con información de VTV
Foto Cortesía

