Fuente: NP
Se ha dispuesto un cronograma de implementación gradual entre 1 a 4 años, otorgando a los sectores público y privado el tiempo necesario para adaptarse a estas exigencias.
La firma legal Niubox, especializada en derecho digital y nuevas tecnologías con presencia en Perú, Ecuador y Colombia, destacó que el nuevo texto normativo (DS N° 115-2025-PCM – Reglamento de la Ley 31814), busca brindar un marco razonable para el buen uso y desarrollo de la Inteligencia Artificial (IA) en el Perú.
Señaló que este reglamento de la norma de Inteligencia Artificial constituye un buen primer paso en el esfuerzo por posicionarnos como líderes en la adopción de tecnologías avanzadas en la región. Sin embargo, apuntó que también presenta algunos desafíos.
Paso importante
Óscar Montezuma, CEO y fundador de Niubox, señaló que el Reglamento es un paso importante para sentar las bases para una IA responsable, estableciendo condiciones de privacidad, gestión del riesgo y transparencia, principalmente.
Sin embargo, es importante no caer en el afán regulatorio excesivo y dar un tiempo necesario para su implementación gradual. Alertó que en el Congreso hay 27 nuevos proyectos de ley para seguir regulando la IA, lo cual podría generar incertidumbre en el sector privado.
Indicó que, si bien el nuevo reglamento busca establecer reglas claras, hay aspectos que generan preocupación. “La amplia prohibición de ciertos usos sin criterios técnicos definidos y la ambigüedad en conceptos como la ‘clasificación de personas’ pueden abrir la puerta a interpretaciones discrecionales y frenar desarrollos legítimos», dijo.
Agrega que este Reglamento representa una oportunidad para que el sector privado, las personas y el Estado se adecuen en el uso de la IA dentro de los plazos de adecuación razonables establecidos. “Es un buen primer marco de referencia, pero que seguramente generará adecuaciones en el futuro”, puntualizó.
Implicancias
Desde Niubox, hemos seguido de cerca todo el proceso de reglamentación, y hoy compartimos las implicancias de esta normativa esencial.
· El Reglamento designa a la Secretaría de Gobierno y Transformación Digital (SGTD) de la Presidencia del Consejo de Ministros (PCM) como la autoridad técnico-normativa responsable de dirigir, evaluar y supervisar el uso de la IA en el país. Sin embargo, no se contempla entre sus funciones aplicar un sistema de sanciones en caso detecte infracciones a las normas establecidas.
· Se establecen principios rectores fundamentales como la no discriminación, la privacidad de los datos personales, la protección de derechos fundamentales, la supervisión humana y la transparencia algorítmica, buscando que la innovación tecnológica esté al servicio del bienestar colectivo. En este punto, si bien se toma el modelo regulatorio Europeo, nos brinda un marco en general un poco más flexible que dicho modelo.
· Una de las principales novedades radica en la clasificación de riesgos para los sistemas basados en IA, distinguiendo entre el «Uso Indebido» (expresamente prohibido) y el «Uso de Riesgo Alto». Entre los usos prohibidos se incluyen aquellos que manipulan decisiones de personas, sistemas letales autónomos en el ámbito civil, vigilancia masiva sin base legal y el análisis de datos biométricos sensibles que conduzcan a discriminación.
· Los sistemas de riesgo alto, aunque permitidos, exigen el cumplimiento de condiciones y controles estrictos, abarcando ámbitos críticos como la gestión de activos nacionales, procesos educativos de niños, niñas y adolescentes, selección laboral, programas sociales y servicios de salud. Esta diferenciación busca equilibrar la innovación con la protección de la ciudadanía.
· El Reglamento también enfatiza la transparencia algorítmica para sistemas de riesgo alto, obligando a desarrolladores e implementadores a informar claramente a los usuarios sobre la finalidad, funcionalidades y tipo de decisiones de la IA, incluso mediante el etiquetado visible de productos o servicios generados por estas tecnologías. Para las entidades de la Administración Pública, se establecen obligaciones específicas, como la aprobación de políticas institucionales de uso ético, el uso de estándares técnicos como la NTP-ISO/IEC 42001:2025, la publicación de código fuente de IA financiada públicamente y la implementación de una supervisión humana efectiva.
· Asimismo, se promueve activamente la formación de capacidades y la sensibilización en IA en todos los niveles, desde la educación básica hasta el fomento de talentos especializados. En ese sentido, se ha dispuesto un cronograma de implementación gradual que oscila entre uno y cuatro años, otorgando a los sectores público y privado el tiempo necesario para adaptarse a estas exigencias.