CEREBRO ARTIFICIAL

Noticias de Argentina y el mundo sobre IA

La Unidad de Inteligencia Artificial Aplicada a la Seguridad: avances, interrogantes y riesgos

La Unidad de Inteligencia Artificial Aplicada a la Seguridad: avances, interrogantes y riesgos

El Gobierno nacional anunció la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS), un organismo dependiente del Ministerio de Seguridad que tiene como objetivo prevenir, detectar, investigar y perseguir delitos cibernéticos y sus ramificaciones. Sin embargo, su lanzamiento ha generado cuestionamientos por parte de especialistas en tecnología y derechos digitales, quienes advierten sobre los posibles riesgos en materia de privacidad, transparencia y control ciudadano.

Una herramienta con objetivos poco claros

La UIAAS operará bajo la Dirección de Ciberdelito y Asuntos Cibernéticos, dependiente de la Unidad de Gabinete de Asesores. Según la resolución 710/2024, entre sus principales funciones se encuentran la vigilancia de redes sociales abiertas, la identificación de grupos delictivos y disturbios, el análisis de imágenes de cámaras de seguridad mediante reconocimiento facial y la creación de perfiles de sospechosos a partir del procesamiento de grandes volúmenes de datos.

Si bien el Gobierno ha enfatizado la necesidad de actualizar las herramientas de seguridad ante el crecimiento de los ciberdelitos, persisten dudas sobre la tecnología a emplear, el marco regulatorio que la respaldará y la forma en que se resguardará la información sensible.

El debate sobre la legalidad del monitoreo en redes sociales

Uno de los puntos más controvertidos es la facultad de la UIAAS para “patrullar redes sociales abiertas” y monitorear la deep web en la detección de delitos. Según Beatriz Busaniche, presidenta de la Fundación Vía Libre, esta práctica es ilegal sin una orden judicial. «Es lo que se conoce como investigación de fuentes abiertas, y solo está permitida cuando existe una hipótesis delictiva y autorización de un juez», explicó.

Busaniche ilustra el problema con un ejemplo sencillo: «Si un policía camina por la ciudad y escucha conversaciones en la vía pública, eso no supone una invasión de privacidad. Sin embargo, si se detiene junto a dos personas en una plaza para registrar su conversación, estaría cruzando la línea de lo permitido». En ese sentido, considera que el monitoreo masivo en redes sociales sin supervisión judicial atenta contra la libertad de expresión y el derecho a la privacidad.

El problema del profiling y los sesgos algorítmicos

Otro aspecto crítico es la capacidad de la UIAAS para procesar grandes volúmenes de datos con el fin de crear perfiles de sospechosos. Natalia Zuazo, especialista en política y tecnología, advierte que los sistemas de IA pueden presentar sesgos significativos. «Los modelos de IA arrojan resultados en función de los datos con los que fueron entrenados. Sin transparencia sobre esos datos, no podremos evaluar si los criterios de identificación de sospechosos son objetivos o arbitrarios», señaló.

Históricamente, los sistemas de IA han demostrado sesgos en distintos ámbitos. En Estados Unidos, tecnologías de reconocimiento facial han fallado reiteradamente en la identificación de personas afrodescendientes, generando preocupaciones sobre discriminación. «No son sistemas inteligentes, sino mecanismos estadísticos que procesan grandes volúmenes de datos. Cuando se utilizan para tomar decisiones sobre personas, el margen de error es enorme y peligroso», añadió Busaniche.

Reconocimiento facial: antecedentes y riesgos

El uso del reconocimiento facial es otro de los puntos que genera controversia. La UIAAS tendrá la facultad de analizar imágenes de cámaras de seguridad en tiempo real para identificar personas sospechosas o buscadas. Sin embargo, esta tecnología ha sido cuestionada en distintos países por sus fallas y riesgos asociados a la privacidad.

En Argentina, el Sistema de Reconocimiento Facial de Prófugos (SRFP), implementado en 2019 en la Ciudad de Buenos Aires, fue declarado inconstitucional tras múltiples denuncias sobre errores y abusos. Organismos como el CELS y la Fundación Vía Libre cuestionaron la falta de controles y el uso indebido de la información recolectada. En la actualidad, el reconocimiento facial sigue siendo un área de intensa discusión en el ámbito jurídico y de derechos humanos.

El impacto en la protesta social y la vigilancia estatal

La función de la UIAAS de «analizar actividades en redes sociales para detectar amenazas potenciales y prever disturbios» también ha despertado preocupaciones. Para Busaniche, esta medida se orienta a la criminalización de la protesta social y la organización ciudadana. «El monitoreo de redes sociales puede convertirse en una herramienta de control político y represión», afirmó.

Zuazo recordó que iniciativas similares fueron impulsadas por Patricia Bullrich durante su gestión como ministra de Seguridad en el gobierno de Mauricio Macri, sin que se lograran avances significativos en la prevención del delito. «Lo que se logró fue la persecución de manifestantes por delitos menores o, en algunos casos, sin delito alguno», indicó.

La cuestión energética y los costos de la vigilancia digital

El desarrollo de sistemas de IA requiere un alto consumo energético. Según estimaciones internacionales, en 2027 la IA representará el 0,5% del consumo mundial de electricidad, lo que equivale al gasto anual de un país como Argentina. En este contexto, el país podría beneficiarse de su potencial en energías renovables, especialmente en energía eólica y solar.

Iván Buffone, socio director de Business & Sustainability, sostiene que Argentina podría atraer inversiones en infraestructura tecnológica aprovechando su capacidad para generar energía limpia. «El procesamiento de datos de IA demanda grandes cantidades de energía. Si Argentina logra desarrollar data centers en la Patagonia con energía renovable, podría posicionarse como un actor clave en el sector», afirmó.

La falta de regulación y los desafíos jurídicos

Argentina no cuenta con un marco normativo específico para regular el uso de IA en seguridad. Si bien en 2023 el país aprobó las «Recomendaciones para una Inteligencia Artificial Fiable» de la ONU, estas no tienen carácter vinculante.

Sofía Scasserra, directora del Observatorio de Impactos Sociales de la Inteligencia Artificial, advierte que el vacío normativo dificulta la supervisión de estas tecnologías. «A nivel internacional, algunas empresas se niegan a revelar los algoritmos de sus sistemas de IA alegando secreto comercial. Esto plantea un problema grave en términos de control y auditoría estatal», señaló.

Conclusión: un equilibrio entre seguridad y derechos fundamentales

La creación de la UIAAS plantea un dilema central: cómo equilibrar la modernización de las herramientas de seguridad con la protección de los derechos fundamentales. Si bien la inteligencia artificial puede aportar innovaciones en la lucha contra el delito, su implementación sin un marco regulador adecuado podría derivar en abusos y violaciones a la privacidad.

La falta de transparencia en la selección y entrenamiento de los modelos de IA, la ausencia de mecanismos de control independientes y el riesgo de criminalización de la protesta social son algunos de los desafíos que deberán resolverse antes de que la UIAAS entre en funcionamiento de manera efectiva.

A medida que avanza la revolución tecnológica, la pregunta sigue abierta: ¿puede un Estado democrático utilizar herramientas de vigilancia masiva sin comprometer las libertades individuales? La respuesta dependerá de las regulaciones que se establezcan y del control ciudadano sobre su implementación.

Facebook
X
LinkedIn
WhatsApp
Email