La revolución tecnológica impulsada por los asistentes de inteligencia artificial (IA) ha transformado la forma en que las personas trabajan, se comunican y aprenden. Sin embargo, expertos en ciberseguridad alertan que su uso masivo también está abriendo una peligrosa brecha: la exposición de datos personales y empresariales a ciberataques cada vez más sofisticados.
Un informe reciente de la empresa Kaspersky Lab advierte que los asistentes virtuales, desde ChatGPT hasta Alexa, pueden ser vulnerables si no se regulan adecuadamente. “Cada comando que damos, cada interacción, puede ser una puerta abierta para el robo de información sensible”, explicó María Fernanda Ordóñez, analista en ciberdefensa.
Los ataques más comunes incluyen la manipulación de respuestas, el acceso no autorizado a historiales de conversación y la suplantación de identidad mediante voz sintética. “El riesgo no es solo técnico, sino psicológico: los usuarios confían demasiado en la IA y revelan más de lo que deberían”, indicó Ordóñez.
TAL VEZ TE INTERESE: Nace tortuga de dos cabezas en campamento de Michoacán
Según el informe, el 74% de las empresas que integran asistentes de IA en sus procesos no implementan medidas de cifrado adecuadas. Esto significa que, en muchos casos, las conversaciones internas pueden ser interceptadas o reproducidas por terceros.
El Centro de Ciberseguridad de la Unión Europea (ENISA) también ha señalado que la rápida expansión de modelos conversacionales sin auditoría suficiente representa un “riesgo global” para la privacidad. “La IA no solo aprende de nosotros, también nos imita, y eso la convierte en una herramienta poderosa… o peligrosa”, apuntó su último boletín.
Las autoridades tecnológicas de México, España y Estados Unidos trabajan en marcos normativos para regular el almacenamiento y uso de datos generados por IA. Sin embargo, la velocidad de la innovación dificulta que la legislación avance al mismo ritmo.
Los investigadores proponen una combinación de educación digital, transparencia algorítmica y protocolos de seguridad descentralizados como las claves para mitigar riesgos. “El usuario debe entender que la IA no es una entidad neutra: cada respuesta tiene detrás un modelo que recopila información y la reinterpreta”, dijo Rodolfo Camarena, experto de la UNAM.
A pesar de las advertencias, la adopción de asistentes inteligentes sigue creciendo exponencialmente. Se estima que para 2030, más del 85% de los hogares del mundo contará con al menos un dispositivo de asistencia por voz o texto.
El debate sobre los asistentes de IA no es solo técnico, sino ético. ¿Hasta qué punto estamos dispuestos a ceder privacidad a cambio de comodidad? En una era donde la tecnología parece escucharlo todo, la pregunta más urgente podría ser: ¿quién nos está escuchando realmente?
Sin embargo, desde que las herramientas de IA pasaron de simplemente generar texto, imágenes o videos a ser asistentes que pueden explorar de forma independiente internet, el potencial de manipulación maliciosa ha aumentado.
Para Marti Jorda Roca, ingeniero en la española NeuralTrust, hay que considerar esta posibilidad en todos los niveles.
“La gente debe entender que el uso de la IA presenta peligros específicos de seguridad”, y en cuanto a las empresas, “deben instalar salvaguardas (…) para encuadrar estos riesgos”, afirma.
Meta califica esta nueva amenaza, denominada “inyección de consulta”, como una “vulnerabilidad”, mientras que el responsable de seguridad informática de OpenAI, Dane Stuckey, la considera “un problema de seguridad no resuelto”.
Delicado equilibrio
La inyección de consultas puede, en algunos casos, ocurrir en tiempo real cuando una solicitud del usuario -“resérvame una habitación de hotel”- es manipulada por un actor hostil para convertirse en otra cosa -“transfiere 100 dólares a esta cuenta”.
Pero estas instrucciones también pueden estar ocultas en internet mientras los asistentes de IA integrados en navegadores encuentran datos en línea de calidad u origen dudosos, y potencialmente armados con comandos ocultos de hackers.
Eli Smadja, de la firma israelí de ciberseguridad Check Point, ve la inyección de consultas como el “problema de seguridad número uno” para los modelos de lenguaje que impulsan a los asistentes de IA surgidos tras la irrupción del ChatGPT.
“Un gran error que veo mucho es dar al mismo asistente de IA poder absoluto para hacer todo”, explica Smadja a la AFP.
Para Johann Rehberger, investigador en ciberseguridad conocido bajo el seudónimo wunderwuzzi (genio), “el gran desafío es que los ataques se perfeccionan”.
Rehberger argumenta que los asistentes de IA no están lo suficientemente maduros como para ser confiables.
“Todavía no estamos en el punto de poder dejar que un asistente de IA opere de forma autónoma durante un largo período y realice de manera segura una tarea determinada”, dice. “Termina por desviarse”.
TAL VEZ TE INTERESE: Explota maqueta en feria de ciencias y deja 10 heridos
Con información de LA JORNADA

Deja un comentario Cancelar respuesta