Cultura Digital

miércoles, 11 de febrero de 2026

HACIENDO TRANSPARENTE LA CAJA NEGRA DEL ALGORITMO EN PERÚ

La tecnología que no añade interacción efectiva resta humanidad.

En Perú, hasta ahora se ha permitido que el software operara con la opacidad de un oráculo griego. Con el DS 115-2025, esto parecería cambiar.

A partir de esta norma, las instituciones peruanas que delegan procesos críticos en la Inteligencia Artificial, desde la asignación de aulas hasta la selección de empleados, están obligadas a transparentar la "caja negra".

La tecnología deja de ser un misterio tecnológico para convertirse en un potencial riesgo de gestión. Esto es: si no es explicable, con fundamentos transparentes, no es legal, no puede serlo.

La experiencia nos recuerda una verdad incómoda:

"El código no es neutro; es un espejo de nuestros propios prejuicios".

El cumplimiento del Art. 4.b exige auditar esos sesgos invisibles que suelen castigar al género, la raza o la discapacidad, y haciéndolo además sin consecuencias o sin posibilidad de rectificación. No puede haber eficiencia en un sistema que excluye. De hecho, si una IA no es capaz de interactuar cabalmente con una persona con discapacidad visual, el sistema no es "inteligente"; es simplemente una herramienta de segregación mal diseñada.

Finalmente, el Estado ha hecho un llamado a ponerle freno al entusiasmo irreflexivo por la automatización. Para los sectores de alto riesgo, la Supervisión Humana (Art. 4.k) deja de ser una sugerencia, ahora se convierte en un imperativo de seguridad jurídica. No se trata de desconfiar de los cables o el hardware, sino más bien de confiar en la responsabilidad de quienes los conectan.

El reto para cualquier gerente de TI hoy es muy significativo:
¿Somos capaces de realizar un análisis forense a nuestro código y encontrar el rastro de nuestra propia ética?

No hay comentarios: