Dec 12, 2019 BERTRAND BADRÉ , PHILIPPE HEIM, Project Syndicate
PARÍS – El debate sobre la “sostenibilidad” suele centrarse, por comprensibles razones, en los compromisos ambientales y sociales de las empresas. Pero hay un sector particular, el financiero, que debería considerar otras dos dimensiones menos obvias de la sostenibilidad. Una es la sostenibilidad regulatoria, esencial para analizar el riesgo sistémico que plantea el sector financiero a la sociedad. La otra es la sostenibilidad tecnológica, una nueva frontera emergente con un impacto cada vez mayor sobre los modelos de negocios y las estrategias de las empresas.
Datos, robótica e inteligencia artificial están en boca de todos, y tienen un enorme potencial, pero es necesario que las instituciones financieras también comprendan los riesgos, el impacto social y las implicaciones éticas de estas nuevas tecnologías.
Datos, robótica e inteligencia artificial están en boca de todos, y tienen un enorme potencial, pero es necesario que las instituciones financieras también comprendan los riesgos, el impacto social y las implicaciones éticas de estas nuevas tecnologías.
En relación con los datos, las cifras son sorprendentes: el 90% de todos los datos disponibles en el mundo se creó en los últimos dos años, y se calcula que generamos unos 2,5 trillones de bytes de datos cada día. En este contexto, es esencial que las instituciones financieras (que son a la vez importantes productoras y usuarias de datos) analicen diversas inquietudes relacionadas con la creación y la protección de los datos.
El rigor regulatorio en este ámbito es cada vez mayor, de lo que sirve de ejemplo el Reglamento General de Protección de Datos (RGPD) de la Unión Europea. Felizmente, los bancos y las empresas de seguros siguen gozando de una reputación de fiabilidad. El desafío que tienen por delante es honrar y conservar esa confianza, resistiendo la creciente tentación de monetizar sus “activos” de datos mediante su venta o uso con fines promocionales.
La robótica, en tanto, está transformando todas las industrias y el mercado laboral. Según algunas estimaciones, la robótica y la IA pueden reemplazar entre un cuarto y la mitad de toda la fuerza laboral del sector financiero en la próxima década. Es verdad que estudios del empleo fabril alemán no hallaron pruebas de que la robótica reduzca el nivel de empleo general: aunque cada robot elimina dos puestos fabriles, crea otros en el sector servicios que compensan plenamente la pérdida. Pero los robots afectan la composición del empleo agregado.
De hecho, es probable que estemos experimentando otro episodio de “destrucción creativa” a la manera de Schumpeter. La robótica y la IA cambiarán los tipos de trabajos disponibles, su ubicación y las habilidades necesarias para desempeñarlos. Este efecto disruptivo demanda un manejo cuidadoso. Por eso, los bancos y otras instituciones financieras deben empeñarse en anticipar el efecto que estas tecnologías tendrán sobre sus empleados, e invertir en capacitación y orientación profesional para ayudarlos durante la transición.
Es probable que la parte más difícil del análisis que debe hacer el sector financiero sea la referida a la IA, por su complejidad y sus implicaciones éticas. Aunque las instituciones financieras están en el centro de las críticas desde la crisis financiera global, lo cierto es que hace mucho están atentas a los aspectos éticos de su actividad. Sin embargo, la IA nos trae a otro nivel, donde las empresas tendrán que anticipar posibles riesgos éticos y definir mecanismos de control y rendición de cuentas.
En esto se destacan dos grandes temas. El primero es el sesgo algorítmico (o sesgo de IA), que se da cuando un algoritmo genera resultados sistemáticamente sesgados como consecuencia de supuestos erróneos en el proceso de aprendizaje automático. Por ejemplo, en 2014 Amazon desarrolló una herramienta para evaluar a postulantes a puestos de ingeniería de software, pero el algoritmo incorporó los sesgos de los ingenieros varones que lo crearon. El resultado fue que el sistema empezó en poco tiempo a discriminar a las mujeres, lo que llevó a la empresa a dejar de usarlo en 2017. En un caso más reciente, Apple y Goldman Sachs lanzaron una tarjeta de crédito que fue objeto de acusaciones de sexismo: para una pareja casada con declaración de impuestos conjunta y residente en una jurisdicción de Estados Unidos con propiedad conyugal compartida, el algoritmo cerrado de Apple daba al marido un límite de crédito 20 veces superior al de la mujer.
La influencia de las preferencias conscientes o inconscientes de los creadores de los algoritmos puede pasar inadvertida hasta que se usan y sus sesgos incorporados se amplifican. Felizmente, los algoritmos admiten revisión y control para evitar decisiones injustas. Por ejemplo, al evaluar el otorgamiento de un préstamo, puede ocurrir que el personal bancario tenga en cuenta inconscientemente el género de quien lo solicitó. Pero con un algoritmo es posible calcular la calificación crediticia excluyendo la variable género y otros factores estrechamente correlacionados. Por eso es crucial implementar mecanismos de protección correctos al momento de desarrollar el modelo.
La otra gran inquietud ética tiene que ver con la transparencia y “explicabilidad” de los modelos basados en IA. En vista de la creciente aplicación que habrá de esos modelos para la toma de decisiones de contratación, otorgamiento de crédito y tal vez incluso jurídicas, es esencial conocer sus aspectos críticos y la importancia relativa de cada uno de ellos en el proceso. Tenemos que ser capaces de mirar dentro del algoritmo para comprender los procesos, procedimientos y supuestos, a veces implícitos, que contiene. Y la regulación también nos llevará cada vez más en esta dirección: por ejemplo, el RGPD introduce el derecho de las personas a obtener “información significativa sobre la lógica aplicada” en decisiones automatizadas que “produzcan efectos jurídicos (…) o que les afecten significativamente de modo similar”.
Todavía tenemos más preguntas que respuestas en lo relacionado con la sostenibilidad tecnológica, lo cual es razonable, porque estamos ingresando cautelosamente a un territorio inexplorado. No olvidemos que el desarrollo de un abordaje más integral en relación con el clima y el medioambiente llevó muchos años, y es probable que todavía nos quede mucho por andar. Ahora hay que iniciar un proceso similar en relación con la sostenibilidad tecnológica y preguntarnos si estamos listos para examinar las implicaciones prácticas, sociales y éticas de las potentes herramientas digitales que están surgiendo.
Como estas preguntas tienen puntos de contacto con la antropología y la filosofía, tanto como la economía y la política, debemos responderlas a través de un debate abierto e inclusivo, marcos interdisciplinarios y una acción colectiva coordinada. Este esfuerzo conjunto debe incluir a los sectores público y privado, y a consumidores, trabajadores e inversores.
El progreso tecnológico conlleva riesgos, pero finalmente mejora la vida de todos. Debemos manejar estos avances en forma responsable para que la humanidad y la tecnología digital se combinen para crear un futuro más sostenible.
Traducción: Esteban Flamini
BERTRAND BADRÉ, a former Managing Director of the World Bank, is CEO of Blue like an Orange Sustainable Capital and the author of Can Finance Save the World?
PHILIPPE HEIM is Deputy CEO of Société Générale.
No hay comentarios:
Publicar un comentario