
Una cuestión de confianza
La confianza en sistemas inteligentes no se decreta: se diseña, se gana y se audita.
shared.rich-text
Confiar en sistemas inteligentes hoy exige más que precisión o velocidad. En 2025, expertos internacionales y estudios recientes coinciden en que la confianza requiere estrategias que articulen transparencia significativa, supervisión humana y responsabilidad institucional. No basta con tecnicismos: se trata de diseñar sistemas en los que confiemos porque entendemos sus decisiones y sabemos quién responde por ellas.
Un meta-análisis publicado en abril de 2025 confirma la existencia de una correlación positiva —aunque moderada— entre la presencia de explicaciones claras y el nivel de confianza del usuario. Esto indica que, si bien la explicabilidad (XAI) contribuye, no es suficiente por sí sola para garantizar la legitimidad de un sistema en la práctica.
Un estudio reciente en Nature Scientific Reports, llevado a cabo en Singapur, revela que la percepción de explicabilidad no solo impacta la confianza en el sistema, sino también en los ingenieros que lo desarrollan. Las personas confían más no solo en la máquina, sino también en quienes la construyen, percibiéndolos más competentes, benevolentes e íntegros. Esa confianza humana complementa la técnica: no se trata solo de entender, sino de creer en quienes diseñan el sistema.
Sin embargo, la investigación del filósofo Sam Baron de la Universidad de Melbourne advierte que algunas formas de confianza no requieren explicabilidad, mientras que aquellas que sí la requieren pueden no ser apropiadas para sistemas complejos como los agentes inteligentes. Esto abre una discusión más profunda sobre qué formas de confianza buscamos: una basada en simple fiabilidad o una fundada en la comprensión completa de los procesos.
En abril de 2025, el MIT Sloan Management Review y Boston Consulting Group, tras una encuesta global entre ejecutivos, destacaron que explicabilidad y supervisión humana son pilares complementarios. El 77 % de los expertos sostiene que uno no reemplaza al otro; más bien se refuerzan mutuamente para evitar que las organizaciones se conviertan en meros validadores pasivos de recomendaciones automáticas.
Estas ideas se conectan con la propuesta LoBOX, un marco teórico que en mayo de 2025 plantea gestionar la opacidad inherente a los sistemas avanzados mediante explicaciones calibradas según el rol y supervisión institucional. Reconoce que en ocasiones no es posible abrir completamente la “caja negra”, pero sí es factible estructurar mecanismos de justificación y seguimiento que sustenten la confianza.
Un enfoque multidimensional emerge con claridad: la explicabilidad debe ser relevante para quienes reciben las explicaciones; la supervisión humana, real y efectiva; y los mecanismos de auditoría, capaces de verificar decisiones de forma independiente y continuar actualizando el sistema. La combinación de estos elementos establece una red de legitimidad, donde cada componente refuerza los otros.
Además, las regulaciones recientes en la Unión Europea y Corea del Sur exigen que sistemas considerados de “alto riesgo” ofrezcan explicaciones claras y comprensibles, así como estructuras que permitan intervención humana efectiva . Estas normativas reflejan que la confianza no es voluntaria: es una exigencia pública sustentada en valores éticos y derechos ciudadanos.
En resumen, la confianza en sistemas inteligentes en 2025 se construye a través de un diseño transparente, supervisión activa y responsabilidad efectiva. Las explicaciones comprensibles acercan las máquinas a las personas; la supervisión humana garantiza control; y los marcos institucionales aseguran rendición de cuentas. Así, los sistemas no solo hacen lo que prometen, sino que demuestran por qué y bajo qué condiciones lo hacen. Y esa conexión integral es lo que convierte la eficiencia en confianza.