La inteligencia artificial (IA) está redefiniendo la forma en que operan sectores críticos como la salud, banca y manufactura, por lo que se vuelve urgente contar con marcos normativos que aseguren su uso ético y responsable.
La norma BS ISO/IEC 42001:2023 es una herramienta formidable para que las organizaciones gestionen de manera adecuada los riesgos e impactos asociados con la IA y, lo más importante, para generar confianza en su implementación.
Esta norma no solo establece los parámetros técnicos necesarios para que los sistemas de IA funcionen de forma confiable, sino que también subraya la importancia de la transparencia y la explicabilidad en la toma de decisiones automatizadas cuando hay factores críticos en juego como la seguridad, la economía, entre otros. Esto es especialmente relevante en sectores como la salud, donde un error en una predicción o diagnóstico asistido por IA puede tener graves consecuencias.
En estos casos, la IA debería ofrecer una clara comprensión de cómo se toman las decisiones para que los usuarios puedan confiar en los resultados y los procesos que los llevaron hacia esos resultados.
El tema de la “caja negra” de la IA, donde se desconoce cómo un algoritmo o conjunto de algoritmos llegan a una conclusión, ha llevado a un punto de fricción constante en la adopción de estas tecnologías por las paradojas que esto presenta en el “versus entre la precisión y la explicabilidad”. La BS ISO/IEC 42001:2023 propone una solución a este problema al requerir que los sistemas de IA sean auditables y que cualquier decisión automatizada pueda ser explicada a las personas afectadas si los impactos son de alto riesgo.
Ética y responsabilidad: Claves de la IA
Uno de los mayores riesgos de los sistemas de IA es la perpetuación de sesgos que pueden conducir a decisiones discriminatorias o erróneas. La norma BS ISO/IEC 42001:2023 aborda este tema al fomentar que las organizaciones implementen políticas éticas claras que aseguren la imparcialidad y la responsabilidad, es decir, la rendición de cuentas es fundamental en todo el ciclo de vida de la IA con un enfoque ético.
La norma también destaca la necesidad de que las decisiones críticas tomadas por IA estén sujetas a un nivel de supervisión humana, para evitar efectos negativos que puedan surgir de decisiones tomadas sin su intervención (humana). Esta filosofía es central en el diseño de la norma, asegurando que la IA no se desarrolle y opere de forma aislada, sino en colaboración con las personas que la supervisan.
La desconfianza pública hacia la IA sigue siendo uno de los mayores obstáculos para su adopción. Para mitigar este problema, la norma promueve la implementación de auditorías internas y externas para verificar que los sistemas de IA se alineen con principios éticos y operen de acuerdo con las expectativas sociales y legales. Dichas auditorías no solo ayudan a las organizaciones a mantenerse dentro del marco ético, sino que también refuerzan la confianza del público al demostrar que la IA se utiliza de manera responsable y controlada.
Además, la norma fomenta la comunicación clara de los riesgos, y beneficios de la IA a las partes interesadas, así como de los posibles impactos que conlleva en individuos, grupos de individuos y sociedades; lo que contribuye a cerrar la brecha de confianza entre la tecnología y la sociedad. Esta rendición de cuentas es fundamental para que los usuarios y los reguladores puedan entender los riesgos y los métodos para mitigarlos.
Un aspecto interesante de la BS ISO/IEC 42001:2023 es su alineación con otras normativas internacionales, como la ISO/IEC 27001 (gestión de seguridad de la información) o la ISO 9001 (gestión de la calidad). Esto no solo facilita su adopción por parte de empresas que ya cumplen con estos estándares, sino que también reduce la carga administrativa, permitiendo una integración fluida en los sistemas de gestión existentes donde se amplía la capacidad de gobernanza a diferentes puntos de interés de la organización y otras partes interesadas.