Reglamento de la Ley 31814 que promueve el uso de la Inteligencia Artificial para el desarrollo económico y social
En el Perú, por Decreto Supremo 115 2025 PCM , publicado el martes 09 de setiembre de 2025, se ha aprobado el Reglamento de la Ley 31814 que promueve el uso de la Inteligencia Artificial para el desarrollo económico y social. Por su importancia y actualidad publicamos el presente alcance en el presente Blog Jurídico Digital.
Objeto, Finalidad, Ámbito de Aplicación, Excepciones.
El presente Reglamento tiene por objeto establecer disposiciones reglamentarias de la Ley N° 31814, Ley que promueve el uso de la Inteligencia Artificial en favor del desarrollo económico y social del país, en adelante, la Ley.
El presente Reglamento tiene por finalidad:
a) Fomentar e impulsar el desarrollo y uso de la Inteligencia Artificial por parte de las entidades públicas, organizaciones del sector privado, la sociedad civil, ciudadanía y la academia.
b) Promover el uso seguro, responsable y ético de sistemas basados en Inteligencia Artificial, garantizando el respeto de los derechos humanos en el territorio nacional consagrados en la Constitución Política del Perú y en los tratados internacionales de los que el Perú es parte.
c) Establecer disposiciones para que el desarrollo, implementación y uso de sistemas basados en Inteligencia Artificial se realice de manera segura, ética, sostenible, transparente, replicable, responsable e inclusiva.
Las disposiciones del presente Reglamento son de aplicación a:
a) Las entidades de la Administración Pública establecidas en el artículo I del Título Preliminar del Texto Único Ordenado de la Ley Nº 27444, Ley del Procedimiento Administrativo General, aprobado mediante Decreto Supremo Nº 004-2019-JUS, o norma que lo sustituya.
b) Las empresas que realizan actividad empresarial del Estado que se encuentran en el ámbito del Fondo Nacional de Financiamiento de la Actividad Empresarial del Estado (FONAFE), así como, las empresas públicas de los gobiernos regionales y locales.
c) Las organizaciones del sector privado, la sociedad civil, ciudadanos y la academia que integran el Sistema Nacional de Transformación Digital, en el marco del proceso nacional de transformación digital, privilegiando a la persona y el respeto de los derechos humanos, conforme a lo dispuesto en el artículo 1 de la Ley.
Las disposiciones del presente Reglamento no son aplicables en los siguientes supuestos:
a) El uso de sistemas basado en Inteligencia Artificial para fines personales.
b) El uso de sistemas basado en Inteligencia Artificial para la defensa y seguridad nacional, siempre que cumplan con los siguientes principios: centrado en la protección de derechos fundamentales, no discriminación, seguridad, proporcionalidad y fiabilidad, supervisión y rendición de cuentas.
Principios Rectores
Son principios que rigen el desarrollo, implementación y uso de sistemas basados en IA, complementariamente a los establecidos en el artículo Único del Título Preliminar de la Ley, los siguientes:
a) No discriminación: En las fases del desarrollo, implementación y uso de un sistema basado en IA, se implementan medidas para prevenir, mitigar y corregir la generación, el reforzamiento o la perpetuación de resultados discriminatorios o sesgados. En consecuencia, se busca evitar cualquier forma de discriminación conforme lo establece la Constitución Política del Perú, en las normas y tratados o acuerdos nacionales e internacionales, asegurando que los sistemas basados en IA se usen de manera segura, responsable, ética, justa, transparente, equitativa y respetuosa de los derechos humanos.
b) Privacidad de los datos personales: Es el respeto de manera irrestricta a la privacidad y la protección de datos personales en el desarrollo, implementación y uso de la IA, estableciendo medidas técnicas, organizativas y legales para preservar la seguridad de los datos personales, promover la transparencia de las condiciones del tratamiento de los datos personales y fortalecer la confianza digital, con el objetivo de generar un impacto positivo en la sociedad, promoviendo el bienestar, la equidad y el desarrollo integral de los ciudadanos, sin comprometer su dignidad ni sus libertades individuales.
c) Protección de derechos fundamentales: Se garantiza el respeto y protección de los derechos fundamentales en el desarrollo, implementación y uso de sistemas basados en IA, priorizando el bienestar humano conforme a la Constitución Política del Perú, las normas y tratados o acuerdos nacionales e internacionales.
d) Respeto del derecho de autor y derechos conexos: En las fases del desarrollo, implementación y uso de un sistema basado en IA, se deben respetar los derechos de autor, tanto morales como patrimoniales, y de los creadores respecto de sus obras originales de acuerdo con la normativa nacional y los tratados internacionales en la materia.
e) Seguridad, proporcionalidad y fiabilidad: Los sistemas basados en IA deben ser fiables y seguros durante todo su desarrollo implementación y uso para que, en condiciones de uso, según su finalidad prevista, funcionen adecuadamente y minimicen los riesgos del uso indebido u otras condiciones adversas vinculados a dichos sistemas. La aplicación de las salvaguardias y medidas de fiabilidad y seguridad debe ser proporcional al nivel de riesgo que el sistema basado en IA pueda generar.
f) Sensibilización y educación en IA: Se promueve la alfabetización digital y el desarrollo de habilidades relacionadas con el diseño, desarrollo, implementación y uso de sistemas basado en IA, en todas las etapas del desarrollo de una persona, con énfasis en ciencia, tecnología, ingeniería, matemáticas, estadística, programación, ciencia de datos, ética, derechos humanos, entre otros; así como la concienciación, comprensión y sensibilización sobre el uso y el impacto de los sistemas basados en IA, para que las personas puedan tomar decisiones informadas sobre su uso.
g) Sostenibilidad: En las fases del desarrollo, implementación y uso de un sistema basado en IA, se analizan y evalúan de manera integral sus repercusiones humanas, sociales, económicas, culturales y ambientales, asegurando que estén alineadas con los objetivos de las Políticas Nacionales y los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas. Asimismo, se promueve la adopción de prácticas sostenibles que minimicen el consumo de energía y recursos, fomentando soluciones tecnológicas responsables con el ambiente, así como sus componentes, y comprometidas con el desarrollo sostenible.
h) Supervisión Humana: Los sistemas basados en IA, deben estar sujetos a una supervisión humana, asegurando que sus decisiones sean éticas, justas y respetuosas de los derechos fundamentales, así como, garantizando la validación de la calidad de los datos utilizados para asegurar su precisión, integridad y representatividad. La intervención humana es necesaria para corregir, modificar o detener el funcionamiento de estos sistemas, con el fin de prevenir abusos, fortalecer la transparencia y rendición de cuentas y salvaguardar el bienestar colectivo, en cumplimiento de los principios jurídicos, éticos y morales vigentes.
i) Transparencia: Los sistemas basados en IA, deben ser claros, explicables y accesibles, garantizando que los procesos, algoritmos y decisiones sean comprensibles para usuarios, implementadores, y autoridades. Esto incluye facilitar información sobre su funcionamiento, los datos utilizados, los criterios de decisión y los posibles sesgos, promoviendo la rendición de cuentas y la confianza pública. La transparencia fortalece la equidad, la justicia y el respeto a los derechos humanos, alineando el uso de la IA con el interés colectivo y los valores democráticos.
j) Rendición de Cuentas: Los actores involucrados en el desarrollo, implementación y uso de sistemas basados en IA, asumen responsabilidad por sus acciones y decisiones, debiendo garantizar mediante mecanismos que permitan identificar, evaluar y responder por los impactos generados por la IA, ya sean positivos o negativos, en ámbitos como los derechos humanos, la equidad, confianza, la seguridad y el medio ambiente.
Asimismo, respecto a los siguientes principios establecidos en la Ley, se debe tener cuenta lo siguiente:
k) Desarrollo ético para una IA responsable: Se promueve un enfoque ético para definir que en el desarrollo, implementación y uso de los sistemas basado en IA se garantice el respeto de los derechos humanos, la dignidad y el bienestar colectivo, conforme a los principios jurídicos, éticos y morales.
l) Estándares de seguridad basados en riesgos: Busca una comprensión profunda de los riesgos específicos y sus implicancias en el desarrollo, implementación y uso de los sistemas basados en IA. Se identifican amenazas, vulnerabilidades y posibles consecuencias negativas, así como, la evaluación de la probabilidad de ocurrencia y el impacto asociado a cada riesgo.
Clasificación de Riesgos
La clasificación de riesgos generados por el uso de sistemas basados en IA, son los siguientes:
a) Uso indebido: Todo sistema basado en IA, que se use para impactar de manera irreversible, significativa y negativa en los derechos fundamentales o el bienestar de las personas, bajo cualquier circunstancia, por lo que dicho uso deviene en prohibido.
b) Uso de riesgo alto: Todo sistema basado en IA, cuyo uso supone un riesgo para la vida humana, la dignidad, la libertad, la seguridad física y los demás derechos fundamentales de las personas; en función tanto del objetivo establecido como de las posibles consecuencias no deseadas; no obstante, puede ser usado bajo el cumplimiento de determinadas condiciones y/o controles.
Todos los sistemas basados en IA, que no se encuentren comprendidos en las clasificaciones señaladas en los artículos 23 y 24, se consideran de riesgo aceptable, y deben garantizar durante su desarrollo, implementación y uso el cumplimiento del presente Reglamento y la Ley..
Artículo 23. Uso indebido de la IA
23.1 Un sistema basado en IA, se considera de uso indebido, y por ende prohibido, cuando es destinado para:
a) Influir de manera engañosa o manipulativa en la toma de decisiones de las personas, en especial cuando: usen técnicas subliminales o deliberadamente engañosas o el aprovechamiento de vulnerabilidades, con el objetivo de afectar la capacidad de decisión de una persona de manera consciente e informada; se aproveche de vulnerabilidades cognitivas, emocionales o socioeconómicas de personas o grupos poblacionales específicos con el fin de modificar su comportamiento de manera sustancial; y, se induzca a error o manipule información mediante un sistemas basado en IA, para afectar la autonomía de decisión de las personas.
b) Generar capacidad letal autónoma, que comprenda la toma de decisiones sin supervisión humana y que pueda generar daño físico o afectar la vida y la integridad de las personas o grupos poblacionales en el ámbito civil.
c) Realizar vigilancia masiva sin base legal o cuando genere o pueda generar un impacto desproporcionado en el ejercicio de derechos fundamentales.
d) Analizar, clasificar o inferir datos sensibles de las personas, sobre la base de sus datos biométricos, para deducir o inferir su origen racial o étnico, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual. Asimismo, para evaluar o clasificar a personas naturales o a colectivos, independientemente del tipo de dato de entrada, cuando dicha evaluación o clasificación genere, cause o contribuya a resultados discriminatorios o desproporcionados que vulneren derechos fundamentales.
e) Realizar identificación biométrica en tiempo real para la categorización de personas naturales en espacios públicos. Salvo en los siguientes escenarios: i) Realizar una verificación biométrica que tenga como fin único la autenticación de la identidad digital; y, ii) Realizar investigación preliminar de los siguientes delitos graves: contra la vida, el cuerpo y la salud (tales como homicidio calificado, sicariato, lesiones graves y feminicidio); contra la libertad (incluida la búsqueda de personas desaparecidas para apoyar en la investigación de delitos graves como el secuestro, trata de personas o la explotación sexual); contra el patrimonio (tales como robo agravado y extorsión); contra la administración pública; de lavado de activos; de tráfico ilícito de drogas; de minería ilegal; y, aquellos comprendidos en el Título XIII (Delitos contra la Dignidad Humana) y el Título XIV (Delitos contra la Libertad Sexual) del Código Penal, así como los delitos previstos en la Ley N° 30077, Ley contra el Crimen Organizado.
f) Predecir que una persona física cometa un delito, basándose en la elaboración del perfil de la persona física o en la evaluación de los rasgos y características de su personalidad.
23.2 La Secretaría de Gobierno y Transformación Digital (SGTD), establece los mecanismos para monitorear el uso de los sistemas basados en IA, que puedan considerarse de uso indebido en el territorio nacional.
23.3 Todo desarrollador o implementador, en caso lo considere necesario, puede solicitar a la SGTD, una consulta para determinar si el sistema basado en IA se encuentra dentro de los supuestos señalados en el numeral 23.1.
23.4 Sin perjuicio de lo señalado en el literal e) del numeral 23.1, los sistemas basados en IA utilizados para apoyar la evaluación humana sobre la implicación de una persona física en una actividad delictiva no se considera indebido, siempre que se basen en hechos objetivos y verificables directamente relacionados con una actividad delictiva ya existente, y cuenten con mecanismos de supervisión humana, transparencia y auditabilidad para garantizar la no discriminación y la protección de los derechos fundamentales.
Articulo 24.- Uso de sistemas basados en IA de riesgo alto
24.1 El uso de un sistema basado en IA, se considera de riesgo alto cuando:
a) Se usa para gestionar activos críticos nacionales que brindan soporte a servicios esenciales (energía, telecomunicaciones, salud, transporte, agua y banca, entre otros).
b) Realizar evaluación en los procesos de niños, niñas y adolescentes (NNA), en el sector educativo, tales como: i) acceso a un centro de educación, ii) evaluación de resultados de aprendizaje, iii) evaluación del nivel de educación que recibe una persona, iv) identificación de comportamientos prohibidos durante un examen y/o actividad educativa; salvo que el sistema integre una función complementaria y no reemplace la evaluación pedagógica humana.
e) Determinar procesos de selección, evaluación, contratación y cese de trabajadores o postulantes a un puesto de trabajo; así como, establecer condiciones laborales.
f) Determinar el acceso, evaluación, orden de priorización y/o cese de la prestación de programas sociales y/o focalización de hogares.
g) Determinar la evaluación crediticia de personas; salvo si el uso de la IA, es para la detección de fraude financiero.
h) Determinar el acceso a servicios de salud y servicios complementarios que afectan la vida y bienestar de las personas.
i) Orienta el tamizaje, la evaluación, sugerencia de diagnóstico, manejo o pronóstico del estado de salud de personas que pueda tener un impacto significativo en su bienestar físico o mental, orden de priorización del daño en emergencias de las prestaciones de salud, y evaluación de datos personales sensibles de personas naturales incluyendo los registrados en las historias clínicas electrónicas (HCE).Se infiere las emociones de una persona física en los entornos de trabajo y en los centros educativos, excepto cuando el sistema basado en IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad.
j) Todo uso que supone un riesgo para la vida humana, la seguridad física, los derechos fundamentales, la libertad y dignidad de las personas, y a su vez, su desempeño implique i) elevada probabilidad de generar estigmatización, discriminación, sesgo cultural, o ii) elevada complejidad para la supervisión humana.
24.2 Todo desarrollador o implementador, en caso se considere necesario, puede solicitar a la SGTD, una consulta para determinar si el sistema basado en IA, se encuentra dentro de los usos considerado de riesgo alto.
Transparencia Algorítmica
El desarrollador o implementador de un sistema basado en IA de riesgo alto debe establecer mecanismos para garantizar la transparencia algorítmica, permitiendo informar al usuario, de forma previa, clara y sencilla, sobre la finalidad o uso del sistema basado en IA, sus funcionalidades principales y el tipo de decisiones que puede tomar, con el objetivo de que el usuario comprenda cómo interactúa con él o con el servicio o producto que utiliza el sistema basado en IA como uno de sus componentes, respetando el secreto industrial y comercial.
Entre los mecanismos se puede incluir, cuando sea relevante para la toma de decisión o interacción con el usuario, el etiquetado visible del sistema basado en IA, que informe a los usuarios con antelación, que el producto, servicio o contenido generado se opera con base en IA; salvo los casos en que la IA apoye procesos administrativos internos sin impacto directo en la toma de decisiones que afecten derechos o servicios a las personas. Asimismo, dicho etiquetado debe ser suficiente para permitir al público comprender de manera general las principales capacidades y limitaciones funcionales del sistema basado en IA.
En caso de que, el sistema tome decisiones que impacten en derechos humanos, debe garantizarse la explicación de sus resultados a los usuarios afectados, mediante mecanismos que permitan la comprensión de los criterios y factores clave utilizados en la toma de decisiones automatizadas, en un lenguaje accesible para el usuario.
La SGTD aprueba los lineamientos sobre Transparencia Algorítmica en concertación, cuando corresponda, con las entidades competentes del SNTD.
Protección de la privacidad de datos en el desarrollo, implementación y uso de la IA
En el desarrollo, implementación y uso de los sistemas basados en IA, se debe cumplir con la normativa vigente sobre privacidad y protección de datos personales, de acuerdo con lo que establezca la Autoridad Nacional de Protección de Datos Personales (ANPDP) del Ministerio de Justicia y Derechos Humanos (MINJUSDH).
Las responsabilidades por el incumplimiento de las obligaciones y prohibiciones que derivan de la normativa de protección de datos personales se determinan conforme al régimen sancionador previsto en la Ley N° 29733, Ley de Protección de Datos Personales y su Reglamento.
Ética en el desarrollo, implementación y uso de la IA
Todo desarrollador, implementador y usuario de la IA debe tener un comportamiento probo y ético, para lo cual se consideran las siguientes acciones:
a) Promover la participación de equipos diversos y multidisciplinarios para el desarrollo e implementación de sistemas basados en IA.
b) Garantizar el pleno respeto de los derechos humanos, y evitar que se generen resultados injustos o discriminatorios.
c) Considerar el impacto social y ambiental en el desarrollo de los sistemas basados en IA.
d) Implementar las mejores prácticas, estándares o Normas Técnicas Nacionales o Internacionales para identificar y minimizar los sesgos de los algoritmos o bases de datos utilizados por los sistemas basados en IA.
La SGTD, en articulación, cuando corresponda, con las entidades competentes del SNTD, aprueba los Lineamientos Éticos para el desarrollo, implementación y uso de la IA.
Obligaciones generales del desarrollador y/o implementador
El desarrollador o implementador de los sistemas basados en IA, tienen las siguientes obligaciones:
En los sistemas basados en IA de riesgo alto, mantener un registro actualizado y accesible, con enfoque preventivo, sobre los principios del funcionamiento del sistema, las fuentes de datos utilizadas y la lógica del algoritmo, los impactos sociales y éticos esperados.
Establecer políticas, protocolos y procedimientos claros, que permitan preservarla seguridad y la privacidad, promover la transparencia y la explicabilidad, garantizar la responsabilidad y la rendición de cuentas, conforme a los principios establecidos en el presente Reglamento y tomando como referencia estándares técnicos internacionales.
Fomentar la educación y concientización interna de sus colaboradores sobre los riesgos asociados con el uso de la IA y la adopción de forma segura, responsable y ética conforme a la Política institucional aprobada.
En los sistemas basados en IA de riesgo alto, implementar mecanismos de supervisión humana en la toma de decisiones que pudiesen implicar un impacto significativo en sectores de salud, educación, justicia, finanzas y acceso a programas y servicios básicos. Se debe garantizar que el personal cuente con las siguientes condiciones como mínimo: i) estar capacitado en la materia a fin de no sesgarse por los resultados del sistema basado en IA, y ii) tener la capacidad de detener, corregir o invalidar las decisiones del sistema basado en IA.
Evaluación de Impacto de riesgo alto
Cuando un sistema basado en IA, se considere de riesgo alto, previo al desarrollo o implementación, de manera voluntaria, se puede realizar un análisis de impacto a fin de identificar y minimizar los riesgos potenciales, garantizando que el sistema evite la afectación a los derecho fundamentales y asegurando que no perpetúen desigualdades o sesgos.
En caso se detecten riesgos que afecten los derechos humanos o posibilidad de decisiones automatizadas erróneas, el desarrollador o implementador adopta medidas proactivas para mitigar los impactos y realiza los ajustes necesarios previos a la implementación final. Entre estas medidas se encuentran: ajustes en los modelos, mejora en la calidad de los datos y mecanismos de supervisión humana.
Los desarrolladores e implementadores que realicen una evaluación de impacto documentan sus hallazgos y las medidas correctivas adoptadas. La conservación de esta documentación se realiza por un período mínimo de tres (3) años, contados a partir de su emisión, lo que facilita la trazabilidad del sistema y sirve como evidencia, de ser requerido por una autoridad judicial o administrativa conforme a sus competencias.
La SGTD promueve reconocimientos para los desarrolladores o implementadores que elaboren su evaluación de impacto de riesgo alto.
La evaluación de impacto de riesgo alto se puede elaborar tomando como referencia la guía o normas complementarias aprobadas por la SGTD, salvo que ya se disponga de una herramienta, instrumento o estándar implementado.
Estándares y mejores prácticas
La SGTD promueve el uso de estándares técnicos internacionales o sus adopciones nacionales aprobadas por INACAL, como las siguientes Normas Técnicas: NTP-ISO/IEC 27002:2022 Seguridad de la información, ciberseguridad y protección de la privacidad. Controles de seguridad de la información, ISO/IEC 38507: 2022 Implicaciones de gobernanza en el uso de la IA por las organizaciones, NTP-ISO/IEC 42001:2025 Tecnología de la información. Inteligencia artificial. Sistema de gestión (SGIA), ISO/IEC 23053:2022 Marco para Sistemas de IA que utilizan aprendizaje automático, NTP-ISO/IEC 27005:2022 Seguridad de la información, ciberseguridad y protección de la privacidad. Orientación sobre la gestión de los riesgos de seguridad de la información; y otras normas técnicas pertinentes en su edición vigente o buenas prácticas complementarias, conforme a las necesidades y regulación de su sector, ámbito o dominio
La SGTD promueve la observancia de las disposiciones sobre el uso, adquisición y adecuación del software, los estándares técnicos para la evaluación de software, los estándares técnicos sobre procesos del ciclo de vida del software, estándares técnicos sobre gestión de seguridad de la información, las evaluaciones del uso y aplicaciones del software de IA, aplicable a las entidades de la Administración Pública, conforme con la normatividad vigente.
Etiquetas: Derecho Digital, Inteligencia Artificial, Sociedad de la Información
0 Comentarios:
Publicar un comentario
Suscribirse a Comentarios de la entrada [Atom]
<< Página Principal