Garrigues analiza los retos de la regulación europea de la IA para el sector financiero

20 de septiembre de 2023 |
Por José Ramón Morales, socio del Departamento Comercial de Garrigues, y codirector del área de Tecnología, Comunicaciones y Digital, Garrigues Digital y Garrigues FinTech Hub

La inteligencia artificial tiene un enorme potencial para las instituciones financieras. Por tanto, al abordar su regulación se busca proporcionar un marco de seguridad jurídica para facilitar su adopción y también abordar los desafíos y riesgos para el sector, los clientes y los supervisores.

La adopción de herramientas de inteligencia artificial (IA) en el sector financiero no es un fenómeno nuevo y desde hace tiempo se identifica como una estrategia clave para la innovación y la competitividad en esta industria. Sin embargo, nos encontramos en un momento imprescindible para su regulación, debido a la concurrencia de dos factores:

(1) el hecho de que la propuesta de Reglamento Europeo sobre IA se encuentra en sus etapas finales antes de su aprobación definitiva, y

(2) la aparición de un número relevante de modelos y soluciones fundacionales en el campo de la llamada IA ​​generativa, basados ​​en técnicas de aprendizaje profundo y redes neuronales y entrenados con enormes cantidades de datos estructurados o no estructurados, que tienen un enorme poder de generación, con diferentes niveles de autonomía, contenidos (texto, imágenes, audio o vídeo). Esto, además de abrir la puerta a nuevos y prometedores casos de uso para el mundo financiero, plantea nuevos desafíos por el tipo de riesgos asociados y posibles implicaciones legales.

La IA en general, pero especialmente la IA generativa, tiene un enorme potencial para las entidades financieras, permitiéndoles mejorar la eficiencia, la calidad y la personalización de los servicios y productos ofrecidos a los clientes (coaching financiero; estrategias de inversión, recomendaciones y ofertas personalizadas; asistentes de inversión), pero también para optimizar sus procesos internos (tramitación de préstamos, scoring crediticio, gestión de carteras, simulación de escenarios, generación de software, desarrollo de contenidos de marketing personalizados), gestión de riesgos (detección de anomalías o fraudes, evaluaciones de riesgos) y cumplimiento (prevención de blanqueo de capitales).

Sin embargo, al abordar su regulación, el objetivo debe ser crear un marco legal que brinde seguridad jurídica a las entidades que lo adopten, pero al mismo tiempo aborde los desafíos y riesgos para la industria, los clientes y los supervisores. En particular, en términos de los niveles de transparencia, explicabilidad, confiabilidad de las soluciones de IA, la capacidad de identificar quién es responsable de su adopción y uso, y las amenazas potenciales a la seguridad y la privacidad. Por no hablar de las consecuencias éticas y del impacto social y medioambiental que puedan tener los sistemas de IA.

Estos desafíos se han abordado en la Unión Europea desde la primera versión de 2021 de la propuesta de Reglamento sobre IA sobre la base de un modelo regulatorio basado en el riesgo, que diferencia entre sistemas de IA prohibidos, de alto riesgo y de riesgo limitado, e impone una serie de requisitos y obligaciones sobre los diferentes operadores de la cadena de valor (proveedores, implementadores, importadores, distribuidores y representantes autorizados de sistemas de IA). Sin embargo, entre los cambios realizados por el Parlamento Europeo a la propuesta de Reglamento en su posición de 14 de junio de 2023, se ha intentado responder a la acentuación de ciertos riesgos que pueden ocurrir con el desarrollo y adopción de sistemas de IA generativa, incluida la introducción de una regulación específica para los modelos de base dentro del texto del reglamento.

Por ejemplo, los sistemas de IA que se utilizan para evaluar la calificación crediticia o la solvencia de las personas físicas son considerados por el Reglamento sobre IA propuesto como de alto riesgo y, por lo tanto, deben estar sujetos a una evaluación de conformidad antes de su comercialización o puesta en servicio. y cumplir con requisitos específicos sobre calidad de los datos, documentación técnica, transparencia, supervisión humana, robustez, precisión y ciberseguridad.

Se sabe que, además de la regulación horizontal prevista para los sistemas de IA en todos los sectores, la propuesta de Reglamento sobre IA contiene disposiciones específicas para las entidades financieras y en relación con la supervisión de su desempeño cuando sean usuarios, proveedores, importadores o distribuidores de IA. sistemas, o cuando lanzan sistemas al mercado o ponen en servicio software.

Pero no debemos olvidar que el futuro Reglamento sobre IA se insertará en el complejo marco regulatorio, a nivel europeo y nacional, que rige el sector financiero; especialmente en lo que respecta a gobierno interno, gestión de riesgos, conducta y protección del cliente, solvencia, ciberseguridad y resiliencia operativa digital, prevención del blanqueo de capitales, protección de datos o sostenibilidad. Por lo tanto, las instituciones financieras que adopten sistemas de IA en general, y la IA generativa en particular, necesitarán evaluar e implementar mecanismos de cumplimiento y gestión de riesgos en respuesta tanto al resultado del Reglamento de IA propuesto como a las otras reglas sectoriales antes mencionadas que pueden verse afectadas por el adopción de tales sistemas.

Por lo tanto, el Reglamento de AI propuesto es un paso muy importante hacia la creación de un marco jurídico común y coherente para la AI en la UE, pero también plantea un desafío importante, especialmente para el sector financiero, en términos de la interacción del régimen que establece con ese resultantes de otros marcos regulatorios en los que las instituciones financieras desarrollan sus actividades.