La tecnología que no añade interacción efectiva resta humanidad.
En Perú, hasta ahora se ha permitido que el software operara con la opacidad de un oráculo griego. Con el DS 115-2025, esto parecería cambiar.
A partir de esta norma, las instituciones peruanas que delegan procesos críticos en la Inteligencia Artificial, desde la asignación de aulas hasta la selección de empleados, están obligadas a transparentar la "caja negra".
La experiencia nos recuerda una verdad incómoda:
El cumplimiento del Art. 4.b exige auditar esos sesgos invisibles que suelen castigar al género, la raza o la discapacidad, y haciéndolo además sin consecuencias o sin posibilidad de rectificación. No puede haber eficiencia en un sistema que excluye. De hecho, si una IA no es capaz de interactuar cabalmente con una persona con discapacidad visual, el sistema no es "inteligente"; es simplemente una herramienta de segregación mal diseñada.
Finalmente, el Estado ha hecho un llamado a ponerle freno al entusiasmo irreflexivo por la automatización. Para los sectores de alto riesgo, la Supervisión Humana (Art. 4.k) deja de ser una sugerencia, ahora se convierte en un imperativo de seguridad jurídica. No se trata de desconfiar de los cables o el hardware, sino más bien de confiar en la responsabilidad de quienes los conectan.
El reto para cualquier gerente de TI hoy es muy significativo:
¿Somos capaces de realizar un análisis forense a nuestro código y encontrar el rastro de nuestra propia ética?
No hay comentarios:
Publicar un comentario