El uso de la inteligencia artificial (IA) en el ámbito laboral crece a gran velocidad, pero la mayoría de los trabajadores aún no comprende los riesgos asociados.
Una encuesta realizada por la empresa de ciberseguridad NordVPN, en el marco del Día Internacional de la Protección de Datos Personales (28 de enero), revela que el 91% de los argentinos no es consciente de las amenazas que enfrenta su privacidad al utilizar herramientas de IA en el trabajo.
Según el estudio, denominado Prueba Nacional de Privacidad (NPT), millones de empleados recurren a asistentes como ChatGPT, Copilot y otras plataformas para aumentar su productividad. Sin embargo, muchos desconocen que al ingresar información confidencial —ya sea personal o corporativa— pueden estar exponiendo datos sensibles sin saber cómo se almacenan, dónde terminan o quiénes accede a ellos.
“El uso de la IA en el trabajo está aumentando tan rápido que no se llegan a comprender los riesgos. La gente ingresa información confidencial en las herramientas de IA sin saber adónde terminan los datos, cómo se almacenan y quiénes pueden acceder a ellos”, advirtió Marijus Briedis, Director de Tecnología de NordVPN.
El especialista subrayó que, a diferencia de una conversación con un colega, las interacciones con sistemas de IA se registran, se analizan y pueden emplearse para entrenar nuevos modelos o para publicidad dirigida, lo que genera vulnerabilidades de privacidad cuando se comparten datos de clientes, estrategias internas o información personal.
Riesgos más allá del ámbito laboral
El informe también advierte que los peligros no se limitan al trabajo. Los ciberdelincuentes utilizan la misma tecnología para diseñar estafas más sofisticadas y convincentes, como deepfakes o clonación de voz, que resultan cada vez más difíciles de detectar.
La encuesta muestra que el 40% de los argentinos no logra identificar fraudes comunes creados con IA, lo que los convierte en un blanco vulnerable. “La IA simplificó el ciberdelito. Ya no es necesario tener mucho conocimiento técnico para armar un mail de phishing, clonar la voz de alguien o crear un sitio web falso idéntico a uno legítimo”, señaló Briedis.
Consejos para proteger la privacidad en la era de la IA
Los expertos recomiendan adoptar medidas preventivas para reducir riesgos:
- Evitar ingresar datos confidenciales de la empresa, clientes o información personal en asistentes de IA.
- Recordar que las conversaciones con IA se registran y almacenan, y pueden ser utilizadas para entrenar modelos futuros.
- Revisar las políticas de uso de IA de cada organización antes de incorporar herramientas generativas en tareas laborales.
Este panorama deja en claro que la concientización sobre privacidad digital es aún insuficiente en Argentina, y que el desafío para 2026 será combinar el aprovechamiento de la IA con prácticas seguras que protejan tanto a las empresas como a los individuos.
