INNOVACIÓN

Harvard destaca a CaixaBank como ejemplo de empresas que aplican la IA responsable

Las or­ga­ni­za­ciones pueden an­ti­ci­parse y adap­tarse a las nor­ma­tivas sobre esta me­to­do­logía

Harvard Business Review.
Harvard Business Review.

Harvard Business Review ha in­cluido a CaixaBank como uno de los ejem­plos de em­presas que han adop­tado prin­ci­pios y prác­ticas de Inteligencia Artificial (IA) res­pon­sa­ble. El ar­tículo, pu­bli­cado el pa­sado 10 de mayo, des­cribe cuatro ac­ciones que las em­presas pueden llevar a cabo para ase­gurar que las prác­ticas de IA res­pon­sable se in­te­gren en sus es­tán­dares ope­ra­ti­vos: tra­du­cir, in­te­grar, ca­li­brar y di­fun­dir.

Además, analiza cómo las organizaciones pueden anticiparse y adaptarse a las normativas sobre la IA, como la Ley de Inteligencia Artificial de la UE, y cómo pueden aprovechar las ventajas competitivas de la IA responsable.

En este sentido, presenta casos de estudios de diversas industrias, como las telecomunicaciones, los medios de comunicación, la banca, el seguro y la salud, que han adoptado principios y prácticas de IA responsable.

Así, la revista menciona el caso de CaixaBank que, al operar en un sector "altamente regulado" como la banca, ya contaba con unos procedimientos de privacidad "sólidos" para cualquier desarrollo tecnológico nuevo.

"En 2020, el regulador español introdujo nuevos requisitos para el uso responsable de los modelos de IA que aprovechan los datos personales, incluidos más de 100 controles relacionados con la transparencia, la explicabilidad, la equidad (control de sesgos) y la solidez (precisión)", explica la publicación.

Para cumplir con este nuevo reglamento, CaixaBank adaptó su metodología de privacidad y sus procesos de validación actuales para el desarrollo de modelos de IA. "Seguimos nuestros procesos de privacidad para que la ética de la IA aproveche todo lo que la organización ha creado hasta ahora", ha trasladado el banco a Harvard Business Review.

Por último, la revista destaca la importancia de que responsables "no técnicos" participen "activamente" en el proceso de desarrollo de la IA, facilitando el diálogo, el apoyo, el equilibrio y el aprendizaje.

Artículos relacionados