noviembre 20, 2025

#LEGISLATURA

GPPAN PROPONE REGULAR LA INTELIGENCIA ARTIFICIAL PARA PROTEGER DERECHOS Y PRIVACIDAD

*La regulación de la IA busca garantizar transparencia y respeto a los derechos fundamentales.

 

El Grupo Parlamentario del PAN (GPPAN) presentó una iniciativa para establecer obligaciones de análisis de riesgos en sistemas de alto impacto, con el objetivo de proteger los derechos y libertades de la ciudadanía frente al uso de tecnologías como la Inteligencia Artificial (IA), el reconocimiento facial y el análisis masivo de datos.

La propuesta, presentada por los diputados Pablo Fernández de Cevallos González y Anuar Roberto Azar Figueroa, coordinador e integrante de la bancada panista, advierte que la legislación vigente carece de disposiciones específicas para enfrentar desafíos como la opacidad de los algoritmos, los sesgos que perpetúan la discriminación y las dificultades de la ciudadanía para ejercer sus derechos frente a decisiones automatizadas.

  • La iniciativa responde a vacíos legales en el uso de nuevas tecnologías.

El proyecto plantea modificaciones a la Ley de Protección de Datos Personales en Posesión de Sujetos Obligados y a la Ley de Transparencia y Acceso a la Información Pública, ambas estatales, para establecer una regulación proporcional. Se impondrán obligaciones más estrictas únicamente a aquellos sistemas que representen un alto riesgo para los derechos fundamentales, sin frenar la innovación en aplicaciones de bajo riesgo.

De esta manera, se fortalecen las obligaciones de seguridad, pasando de un modelo de cumplimiento documental a uno de gestión proactiva de riesgos, y se robustece la figura de Evaluación de Impacto en Protección de Datos (EIPD), definida como un proceso sistemático, preventivo y obligatorio previo a la operación de cualquier política pública, programa o sistema que implique tratamiento de datos personales de alto riesgo.

  • La evaluación de impacto garantiza un control preventivo en el uso de datos personales.

El proyecto establece que los sistemas que traten datos personales sensibles a gran escala deberán someterse, al menos cada dos años, a auditorías externas y pruebas de penetración realizadas por terceros independientes, con el fin de evaluar la robustez de sus controles de seguridad.

La iniciativa también reconoce el derecho de toda persona a no ser objeto de decisiones exclusivamente automatizadas, incluidas las basadas en perfiles, cuando estas produzcan efectos jurídicos o afecten significativamente a los individuos.

Asimismo, se prohíbe el uso de IA en técnicas subliminales o manipuladoras que distorsionen el comportamiento de las personas, en esquemas de puntuación social que generen tratamientos perjudiciales, y en sistemas de identificación biométrica remota en tiempo real en espacios públicos, salvo autorización judicial en casos de delitos graves, búsqueda de víctimas o prevención de amenazas específicas.