La IA está transformando la forma en que los bancos cumplen con estándares regulatorios complejos, haciendo que el cumplimiento sea más rápido, más preciso y menos manual. Esto es lo que necesita saber:
Los bancos deben equilibrar la innovación con la responsabilidad, utilizando la IA para tareas como el seguimiento de transacciones, la evaluación de riesgos y la generación de informes automatizados, al tiempo que cumplen con las regulaciones en evolución. Cumplir con las normas no es sólo una necesidad legal: es una forma de seguir siendo competitivo en una industria que cambia rápidamente.
Para 2025, el panorama regulatorio para los bancos se habrá vuelto cada vez más complejo, ya que las reglas de cumplimiento tradicionales ahora se ven reforzadas por marcos de IA emergentes. La rápida adopción de la IA en los servicios financieros ha superado los avances regulatorios, lo que ha dejado a las instituciones debatiéndose sobre cómo cumplir con los estándares legales en evolución. En septiembre de 2024, 48 estados y jurisdicciones de EE. UU. habían comenzado a redactar proyectos de ley para regular la IA, lo que indica un esfuerzo a nivel nacional para establecer marcos de gobernanza adaptados a las instituciones financieras. Este cambio pone de relieve varias áreas críticas de cumplimiento que los bancos deben abordar.
Los bancos ahora tienen la tarea de gestionar procesos integrados de IA en áreas como la lucha contra el lavado de dinero (AML), el conocimiento del cliente (KYC) y la ética de la IA. Estos dominios exigen que las instituciones garanticen que sus herramientas de inteligencia artificial cumplan con requisitos estrictos de precisión, equidad y transparencia.
Las nuevas regulaciones éticas de la IA enfatizan la equidad, la transparencia y la seguridad. Las instituciones financieras deben demostrar que sus modelos de IA están libres de sesgos y son capaces de explicar sus procesos de toma de decisiones a los reguladores.
Data protection laws have also evolved to address AI-specific challenges. Updates to the Gramm-Leach-Bliley Act (GLBA) and California’s CCPA/CPRA now impose stricter limits on how banks collect, store, and use customer data for AI purposes. These laws, along with global privacy regulations, significantly shape how financial institutions handle data.
Hay mucho en juego en términos económicos. McKinsey estima que la IA generativa podría aportar entre 200.000 y 340.000 millones de dólares anuales al sector bancario mundial a través de aumentos de productividad. Al mismo tiempo, se prevé que el gasto en cumplimiento e implementación de la IA aumente: de 6.000 millones de dólares en 2024 a 9.000 millones de dólares en 2025, y potencialmente alcanzar los 85.000 millones de dólares en 2030, según Statista. Estas cifras subrayan el impacto financiero de cumplir con regulaciones estrictas.
For banks operating across borders, international AI standards add another layer of complexity. Compliance isn’t limited to domestic regulations; institutions must also navigate the laws of every jurisdiction where they operate, creating a multifaceted challenge.
Gartner reports that half of the world’s governments now require enterprises to adhere to a variety of laws, regulations, and data privacy standards to ensure AI is used responsibly. For multinational banks, this means developing adaptable AI systems that comply with diverse regulatory frameworks while maintaining consistent performance.
La transparencia y la explicabilidad también siguen siendo prioridades clave. Los sistemas de IA de alto riesgo se enfrentan a rigurosas evaluaciones previas a la comercialización, y los bancos deben aclarar cómo toman decisiones sus algoritmos tradicionalmente opacos.
El impulso al cumplimiento también está impulsando la innovación. El monitoreo en tiempo real de los activos, los riesgos y los requisitos regulatorios de la IA ahora es esencial, lo que impulsa la adopción generalizada de soluciones de tecnología regulatoria (RegTech). Actualmente, el 90% de las instituciones financieras utilizan estas herramientas para gestionar el cumplimiento.
De cara al futuro, se espera que los reguladores impongan requisitos aún más estrictos, particularmente en áreas como la protección de datos y la ciberseguridad. Para mantenerse al día, los bancos deben desarrollar modelos sostenibles que aborden cuestiones críticas como la trazabilidad de las fuentes de datos, la responsabilidad empresarial y medidas sólidas de privacidad y seguridad.
Los bancos recurren cada vez más a la IA para navegar en el laberinto de requisitos regulatorios. Dado que el ciberdelito cuesta a la economía mundial 600.000 millones de dólares al año (alrededor del 0,8% del PIB mundial) y los intentos de fraude se dispararon un 149% en el primer trimestre de 2021 en comparación con el año anterior, lo que está en juego es más alto que nunca. En 2022, más de la mitad de las instituciones financieras adoptaron sistemas de detección de fraude basados en inteligencia artificial, que han ayudado a reducir los falsos positivos hasta en un 70%. Estas soluciones de IA también están transformando áreas clave de cumplimiento, como el monitoreo de transacciones, los informes automatizados y la evaluación de riesgos.
Los sistemas de monitoreo de transacciones impulsados por inteligencia artificial están reemplazando a los métodos obsoletos basados en reglas. Estos sistemas analizan conjuntos de datos masivos en tiempo real, identificando patrones sospechosos que los analistas humanos podrían pasar por alto, al mismo tiempo que se mantienen alineados con las leyes contra el lavado de dinero (AML) y el financiamiento del terrorismo (CTF). Por ejemplo, American Express aumentó las tasas de detección de fraude en un 6 % utilizando modelos LSTM avanzados, mientras que PayPal mejoró la detección de fraude en tiempo real en un 10 % con sistemas de inteligencia artificial.
Un enfoque basado en el riesgo es crucial para un seguimiento eficaz de las transacciones. Esto significa adaptar las reglas de monitoreo y los umbrales de alerta para que coincidan con el perfil de riesgo específico de un banco. El aprendizaje automático y el análisis del comportamiento mejoran aún más estos sistemas, detectando anomalías que los métodos tradicionales suelen pasar por alto. En 2021, Holvi se asoció con ComplyAdvantage para implementar la detección de riesgos basada en IA. Esta asociación permitió a Holvi priorizar las alertas de alto riesgo, mejorando significativamente la eficiencia del equipo.
"The implementation of Smart Alerts was the smoothest implementation of tech that we have ever experienced. We did not experience any downtime or any interruption of business operations – not even for a second." – Valentina Butera, Head of AML & AFC Operations, Holvi
"The implementation of Smart Alerts was the smoothest implementation of tech that we have ever experienced. We did not experience any downtime or any interruption of business operations – not even for a second." – Valentina Butera, Head of AML & AFC Operations, Holvi
La IA también está revolucionando los informes de cumplimiento al automatizar la preparación de documentos, reducir errores y acelerar los envíos. Estos sistemas están diseñados para generar informes basados en texto, identificar secciones clave y abordar consultas relacionadas con el cumplimiento. Por ejemplo, Standard Chartered utiliza IA para mejorar el monitoreo de transacciones para una detección más rápida de actividades sospechosas, mientras que UBS emplea chatbots de IA para ayudar a los funcionarios de cumplimiento a mantenerse informados sobre los procedimientos.
Grant Thornton Advisory Services ha desarrollado una herramienta de IA generativa adaptada a definiciones de riesgos y necesidades de cumplimiento específicas. Esta herramienta identifica brechas en los marcos de riesgo y control y proporciona recomendaciones específicas para mejorar.
"AI tools are useful in creating and testing Compliance Management System (CMS) programs because they can quickly match the most recent guidance provided by regulators to the bank's CMS plan and monitoring routines and ensure they align with any new or updated regulations." – Leslie Watson-Stracener, Managing Director and Regulatory Compliance Capability Leader, Grant Thornton Advisors LLC
"AI tools are useful in creating and testing Compliance Management System (CMS) programs because they can quickly match the most recent guidance provided by regulators to the bank's CMS plan and monitoring routines and ensure they align with any new or updated regulations." – Leslie Watson-Stracener, Managing Director and Regulatory Compliance Capability Leader, Grant Thornton Advisors LLC
AI’s role in compliance reporting goes beyond document creation. It assists with transactional testing for regulations like HMDA, TILA, and the Flood Disaster Protection Act by identifying exceptions and automating data entry. However, banks must validate data and maintain strong board oversight of AI practices to ensure regulatory alignment. Beyond reporting, AI plays a critical role in assessing overall compliance risk.
Los sistemas de evaluación de riesgos basados en IA analizan grandes conjuntos de datos en tiempo real para detectar patrones y anomalías que podrían indicar riesgos de cumplimiento. Estos sistemas también automatizan partes del proceso de diseño y evaluación del control, mejorando la eficiencia operativa y reforzando la confianza en las medidas de cumplimiento. En conjunto, estos avances mejoran el marco de evaluación de riesgos de un banco.
Actualmente, el 44% de las instituciones financieras están dando prioridad a las inversiones en IA en áreas como la detección de fraudes y la seguridad, reconociendo su potencial para fortalecer la gestión de riesgos. Sin embargo, una encuesta de BioCatch reveló que el 51% de las instituciones financieras experimentaron pérdidas que oscilaron entre $5 millones y $25 millones debido al fraude relacionado con la IA y las amenazas a la ciberseguridad en 2023. Si bien el 73% de las instituciones cree que la IA puede mejorar las experiencias digitales, el 54% expresa preocupación por su impacto, y menos de la mitad de los consumidores se sienten cómodos con que sus datos financieros sean manejados por la IA.
Para garantizar una evaluación eficaz de los riesgos de la IA, los bancos necesitan marcos de gobernanza sólidos para mantener los modelos de IA transparentes, explicables y alineados con las regulaciones en evolución. Las políticas sobre seguridad de datos, cumplimiento y supervisión de terceros son igualmente importantes. Las herramientas de IA generativa pueden ayudar a identificar excepciones y automatizar la entrada de datos de acuerdo con las directrices reglamentarias actuales. La incorporación de mecanismos de revisión y anulación, en los que expertos humanos pueden intervenir cuando sea necesario, garantiza un enfoque equilibrado y humano de la gestión de riesgos.
Para los bancos que buscan optimizar los flujos de trabajo de cumplimiento, plataformas como Prompts.ai (https://prompts.ai) ofrecen colaboración en tiempo real, informes automatizados y capacidades de IA multimodal para simplificar el cumplimiento normativo.
A medida que los bancos adoptan la IA para optimizar el cumplimiento, implementarla de manera ética es igualmente importante. La IA ética garantiza equidad, transparencia y responsabilidad, que son fundamentales para mantener la confianza del cliente y al mismo tiempo cumplir con los estándares regulatorios. En 2023, las instituciones financieras invirtieron 35 mil millones de dólares en tecnologías de inteligencia artificial, y las proyecciones sugieren que esta cifra aumentará a 97 mil millones de dólares para 2027.
Sin embargo, los desafíos éticos, junto con las limitaciones de costos y habilidades técnicas, a menudo obstaculizan la adopción de la IA generativa. Según KPMG, sólo 16 de 50 bancos han establecido principios de IA responsable (RAI), lo que pone de relieve una brecha entre el uso de la IA y los marcos éticos. Esta brecha plantea riesgos tanto para los bancos como para sus clientes.
El sesgo de la IA en la banca puede tener graves consecuencias, especialmente en las decisiones de préstamos y créditos. Un estudio de la Reserva Federal de 2021 reveló que algunos sistemas algorítmicos utilizados en la suscripción de hipotecas denegaban solicitudes de prestatarios minoritarios a tasas más altas que las de los no minoritarios. El director de la Oficina de Protección Financiera del Consumidor, Rohit Chopra, se refirió a esto como "línea roja digital" y "discriminación robótica".
Los sistemas de IA bancaria son vulnerables a varios tipos de sesgos:
En 2023, iTutorGroup enfrentó una demanda de la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU. después de que su sistema de inteligencia artificial excluyera a miles de solicitantes de empleo basándose únicamente en la edad, lo que ilustra los riesgos legales y operativos de sesgo.
Para abordar los sesgos, los bancos deberían adoptar estrategias como la creación de equipos diversos en los departamentos de ciencia de datos, negocios, recursos humanos y legal. También son esenciales las auditorías periódicas de los modelos de IA, el desarrollo de algoritmos transparentes y el seguimiento de la deriva de datos. Además, utilizar diversos conjuntos de datos e incorporar estructuras de gobernanza puede ayudar a mitigar los sesgos de forma eficaz.
La transparencia es clave para generar confianza en la IA bancaria. Como señaló la gobernadora de la Reserva Federal, Lael Brainard, algunos algoritmos son tan complejos que incluso sus creadores pueden tener dificultades para explicar sus decisiones. Para garantizar la confiabilidad, las instituciones financieras deben hacer que los resultados de la IA sean explicables, justos y cumplan con las regulaciones en evolución.
__XLATE_25__
Brian Maher, jefe de producto para plataformas de aprendizaje automático e inteligencia artificial en JPMorgan Chase
"Cosas como la IA explicable, la IA responsable y la IA ética, que defienden contra eventos como sesgos no planificados, ya no se consideran opcionales sino necesarias para las empresas que aprovechan el ML/AI, y específicamente cuando alojan los datos personales de los clientes".
Los bancos deben documentar exhaustivamente las decisiones de IA, detallando fuentes de datos, algoritmos y métricas de desempeño tanto para los reguladores como para los clientes [40, 44]. Un informe de Deloitte sobre "Ética digital y banca" encontró que los clientes están más dispuestos a compartir sus datos cuando comprenden su propósito, cómo se utilizarán y cómo les beneficia. Los pasos prácticos incluyen la adopción de técnicas de IA explicables, la realización de auditorías periódicas y el mantenimiento de una documentación clara de los procesos de toma de decisiones. Herramientas como registros de trazabilidad de decisiones, puntuaciones de confianza y métricas de rendimiento fáciles de usar también pueden ayudar a cerrar la brecha entre las partes interesadas técnicas y no técnicas.
La supervisión estructurada fortalece aún más estas medidas de transparencia, garantizando la rendición de cuentas en cada etapa.
La supervisión eficaz es fundamental para gestionar la IA de forma responsable. A pesar del uso cada vez mayor de la IA, el 55 % de las organizaciones carecen de un marco de gobernanza de la IA y casi el 70 % planea aumentar las inversiones en gobernanza durante los próximos dos años [40, 41]. McKinsey señala que las empresas con una gestión centralizada de la IA tienen el doble de probabilidades de ampliar la IA de forma responsable y eficaz.
Governance should start with senior leadership and include a dedicated AI ethics committee. As Charlie Wright from Jack Henry emphasized, "When it comes to AI, compliance and accountability are more than regulatory obligations – they are commitments to your accountholders' trust and the integrity of your financial institution".
Los elementos clave de los marcos de gobernanza exitosos incluyen procesos centralizados para enviar, revisar y aprobar iniciativas de IA, así como flujos de trabajo automatizados para identificar y mitigar riesgos. La supervisión humana sigue siendo esencial, y los bancos deben ofrecer programas de capacitación en IA, educación multifuncional y debates abiertos sobre los riesgos de la IA [33, 45].
The Apple Card controversy in 2019 serves as a cautionary tale. Apple and Goldman Sachs faced backlash when the card’s algorithm allegedly assigned lower credit limits to women compared to men with similar financial profiles, prompting an investigation by New York’s Department of Financial Services. To prevent such incidents, banks should implement tools to detect and quantify bias, measure fairness using metrics like equalized odds, and flag problematic training data or model features.
Plataformas como Prompts.ai brindan informes automatizados y flujos de trabajo de IA multimodales, lo que ayuda a los bancos a mantener la transparencia y la responsabilidad durante todo el ciclo de vida de la IA. Al priorizar las consideraciones éticas, los bancos pueden alinear la innovación con el cumplimiento normativo y la confianza del cliente.
Desarrollar un enfoque con visión de futuro para el cumplimiento de la IA no es sólo una buena idea: es esencial para el éxito a largo plazo. El entorno regulatorio para la IA en la banca está evolucionando rápidamente y las instituciones financieras deben adelantarse a estos cambios. Como dice Dennis Irwin, director de cumplimiento de Alkami:
__XLATE_34__
Los funcionarios de cumplimiento deben evaluar formas de mitigar el riesgo actual mientras se preparan para los cambios en las regulaciones en los próximos años.
Dado que el aprendizaje automático representa el 18% del mercado total de la industria bancaria, ser proactivo en la planificación regulatoria no se trata sólo de cumplimiento: se trata de mantenerse competitivo.
Los bancos que quieran prosperar en este panorama cambiante deben pasar de proyectos piloto de IA a pequeña escala a estrategias integrales que abarquen toda la empresa. Este cambio les permite adaptarse a las nuevas regulaciones sin sacrificar la eficiencia. La atención debe centrarse en la creación de sistemas que puedan evolucionar, garantizando el cumplimiento y manteniendo la excelencia operativa.
Mantenerse al día con los cambios regulatorios requiere un enfoque deliberado y organizado. Por ejemplo, se espera que la Ley de IA de la UE, que entrará en vigor pronto, dé forma a los estándares regulatorios globales. Para los bancos que operan a través de fronteras, es fundamental mantenerse informado sobre las regulaciones nacionales e internacionales que podrían afectar sus iniciativas de IA.
Para ello, los bancos deberían establecer equipos dedicados a rastrear las actualizaciones regulatorias. Estos equipos deben monitorear los anuncios de organismos reguladores clave como la Reserva Federal, la Oficina del Contralor de la Moneda y la Oficina de Protección Financiera del Consumidor, así como organizaciones internacionales y autoridades de privacidad de datos. Las áreas que exigen mucha atención incluyen los marcos de gobernanza, los requisitos de experiencia, la gestión de riesgos de modelos y la supervisión de proveedores externos de IA. La implementación de sistemas para categorizar los cambios regulatorios según su impacto potencial, cronograma y ajustes organizacionales requeridos ayudará a las instituciones a mantenerse a la vanguardia.
Uno de los mayores obstáculos para el cumplimiento normativo en la era de la IA es la tecnología obsoleta. Los sistemas heredados pueden limitar la capacidad de un banco para escalar proyectos de IA, lo que hace que la modernización sea una prioridad urgente. La transición a una infraestructura basada en la nube y la actualización de los sistemas de datos pueden allanar el camino para mejorar el cumplimiento.
La modernización de las plataformas de datos garantiza que los bancos puedan proporcionar el seguimiento en tiempo real, los registros de auditoría y la documentación que requieren los reguladores. Este proceso no se trata sólo de nueva tecnología, sino de alinear las iniciativas de IA con los objetivos comerciales. Cada aplicación de IA debe evaluarse individualmente para evaluar su riesgo y recompensa, y los equipos multifuncionales deben participar durante todo el ciclo de vida del modelo de IA.
Plataformas como Prompts.ai ofrecen herramientas para simplificar estos esfuerzos, incluidos informes automatizados y flujos de trabajo de IA multimodales. Su infraestructura de pago por uso y su interoperabilidad con grandes modelos lingüísticos permiten a los bancos adaptarse a los cambios regulatorios sin necesidad de revisar sus sistemas.
En un mundo de regulaciones inciertas, la flexibilidad es clave. Laura Kornhauser, cofundadora y directora ejecutiva de Stratyfy, explica:
__XLATE_44__
Desarrollar un marco de cumplimiento flexible no se trata de predecir cada cambio de reglas. Se trata de mantenerse informado, utilizar políticas modulares, realizar evaluaciones basadas en escenarios e interactuar activamente con los reguladores.
Los bancos deben adoptar políticas modulares que puedan adaptarse a las nuevas regulaciones, realizar evaluaciones basadas en escenarios para prepararse para diversos resultados y mantener pistas de auditoría detalladas para demostrar una gestión de riesgos proactiva. Documentar los cambios en el cumplimiento es esencial para la transparencia y la rendición de cuentas.
La colaboración directa con los reguladores es otro paso fundamental. Al involucrar a los reguladores en las primeras etapas de la implementación de proyectos de IA, los bancos pueden recopilar comentarios, alinear sus iniciativas con las expectativas regulatorias y generar confianza.
Leslie Watson-Stracer, directora general de Grant Thornton Advisors LLC, también enfatiza la importancia de la supervisión de la junta directiva:
__XLATE_49__
Asegúrese siempre de que su junta directiva supervise sus prácticas de IA. Y prueba tus resultados. Incluso cuando una herramienta de inteligencia artificial puede estar haciendo el trabajo pesado de analizar datos o comparar información, aún debe incorporar el muestreo y la verificación de anomalías en su proceso.
En última instancia, los procedimientos de cumplimiento flexibles no se refieren sólo a cumplir con las regulaciones, sino que también sirven para mantenerse competitivo. Como dice Kornhauser:
__XLATE_52__
Navegar por el cambio regulatorio no se trata sólo de cumplir con las normas, sino de seguir siendo competitivo.
La integración de la IA en la banca requiere un cuidadoso equilibrio entre abrazar la innovación y mantener la responsabilidad. Ahora que el aprendizaje automático representa el 18% del mercado bancario, tratar el cumplimiento como una ocurrencia tardía simplemente no es una opción. Los bancos tienen la responsabilidad final de cumplir con las regulaciones, incluso cuando utilizan modelos de inteligencia artificial de terceros. La Declaración Interinstitucional sobre Gestión de Riesgos de Modelos subraya este punto:
__XLATE_55__
"Los bancos son, en última instancia, responsables de cumplir con los requisitos BSA/AML, incluso si optan por utilizar modelos de terceros".
Los desafíos éticos también cobran gran importancia en la adopción de la IA. Según un informe de KPMG, cuestiones como la ética, los costos y la experiencia técnica se encuentran entre los mayores obstáculos. A pesar de la creciente concienciación, sólo 16 de 50 bancos encuestados han implementado principios para una IA responsable, lo que revela una brecha entre el reconocimiento y la acción. Para cerrar esta brecha, los bancos deben incorporar medidas clave de cumplimiento (como capacitación, pruebas, monitoreo y auditoría) en sus estrategias de IA. Los líderes de la industria enfatizan la importancia de prácticas de IA explicables, responsables y éticas, particularmente cuando se trata de datos confidenciales de los clientes. Estas prioridades éticas dejan claro que una gobernanza fuerte y adaptable ya no es opcional.
Es esencial construir un marco de gobernanza sólido. Las juntas deben supervisar activamente las iniciativas de IA para garantizar la responsabilidad y la alineación con las expectativas regulatorias. A medida que evolucionen las regulaciones, los bancos deberán seguir siendo flexibles y al mismo tiempo mantener una supervisión rigurosa.
Charlie Wright capta la esencia de esta responsabilidad:
"When it comes to AI, compliance and accountability are more than regulatory obligations – they are commitments to your accountholders' trust and the integrity of your financial institution".
"When it comes to AI, compliance and accountability are more than regulatory obligations – they are commitments to your accountholders' trust and the integrity of your financial institution".
Para garantizar que la toma de decisiones de IA sea justa e imparcial, los bancos deben implementar un marco de IA responsable. Este enfoque prioriza principios como la equidad, la transparencia y la privacidad. También enfatiza el uso de diversos conjuntos de datos para reducir el riesgo de discriminación involuntaria vinculada a factores como el género, el origen étnico o el origen socioeconómico.
Además, los bancos deberían crear políticas de gobernanza claras y formar equipos multidisciplinarios para realizar auditorías periódicas de sus sistemas de inteligencia artificial. Estas auditorías son esenciales para detectar y abordar posibles sesgos, garantizando el cumplimiento tanto de los requisitos reglamentarios como de los estándares éticos. Al comprometerse con la rendición de cuentas y las mejoras continuas, los bancos pueden fortalecer la confianza en sus sistemas de inteligencia artificial y garantizar un trato justo para todos los clientes.
To navigate international regulations effectively, banks need a clear plan for managing AI systems. Start by building a strong AI governance framework. This framework should guide compliance efforts and ensure alignment with both local and international standards. It’s a good idea to set up specialized teams or committees to handle regulatory requirements and oversee AI-related activities.
Regular risk assessments are another key step. These help identify potential regulatory hurdles and assess how AI systems influence operations in different regions. Pair this with ongoing monitoring and auditing of AI models to confirm they’re working as intended and staying compliant with evolving rules. Keeping decision-making processes transparent and maintaining thorough documentation can also help demonstrate compliance to regulators.
Tomar estas medidas no sólo reduce los riesgos sino que también fortalece las relaciones con los reguladores y respalda las operaciones fluidas a través de las fronteras.
Los bancos pueden aprovechar el potencial de la IA estableciendo marcos sólidos de gobernanza de datos y garantizando la transparencia en su aplicación. Esto significa cumplir con los requisitos reglamentarios, no sólo para evitar problemas legales, sino también para ganarse la confianza de los clientes. Establecer reglas claras para la recopilación y el uso de datos, al tiempo que se prioriza el consentimiento del cliente, desempeña un papel clave en la protección de la información confidencial.
Adoptar un enfoque que dé prioridad a la privacidad también puede dar a los bancos una ventaja competitiva, ayudando a fortalecer su reputación en el mercado. Al comprometerse con prácticas éticas de IA y monitorear periódicamente los sistemas de IA, las instituciones financieras pueden lograr el equilibrio adecuado entre la innovación y la responsabilidad de proteger los datos de los clientes. Este enfoque mantiene la confianza en el centro de sus esfuerzos impulsados por la IA.

