Además, analiza cómo las organizaciones pueden anticiparse y adaptarse a las normativas sobre la IA, como la Ley de Inteligencia Artificial de la UE, y cómo pueden aprovechar las ventajas competitivas de la IA responsable.
En este sentido, presenta casos de estudios de diversas industrias, como las telecomunicaciones, los medios de comunicación, la banca, el seguro y la salud, que han adoptado principios y prácticas de IA responsable.
Así, la revista menciona el caso de CaixaBank que, al operar en un sector "altamente regulado" como la banca, ya contaba con unos procedimientos de privacidad "sólidos" para cualquier desarrollo tecnológico nuevo.
"En 2020, el regulador español introdujo nuevos requisitos para el uso responsable de los modelos de IA que aprovechan los datos personales, incluidos más de 100 controles relacionados con la transparencia, la explicabilidad, la equidad (control de sesgos) y la solidez (precisión)", explica la publicación.
Para cumplir con este nuevo reglamento, CaixaBank adaptó su metodología de privacidad y sus procesos de validación actuales para el desarrollo de modelos de IA. "Seguimos nuestros procesos de privacidad para que la ética de la IA aproveche todo lo que la organización ha creado hasta ahora", ha trasladado el banco a Harvard Business Review.
Por último, la revista destaca la importancia de que responsables "no técnicos" participen "activamente" en el proceso de desarrollo de la IA, facilitando el diálogo, el apoyo, el equilibrio y el aprendizaje.