Velocidad, autonomía y opacidad de la IA en el seminario sobre Tecnología Financiera de Arqus R&I

Del 18 al 20 de mayo, la Universidad de Vilna acogió el seminario de investigación interdisciplinar «FinTech: Finance, Technology & Regulation». Este acto atrajo a 54 participantes de universidades de la Alianza Arqus (y también externas a esta) y a representantes del sector de la tecnología financiera (popularmente conocido también como FinTech). El seminario se organizó en el marco del Programa Arqus Research & Innovation (Arqus RI), la rama investigadora de Arqus.

Durante el seminario se debatieron una gran variedad de temas, como la política europea en materia de tecnología financiera, sus riesgos, las estrategias para regularla, las soluciones para mejorar la seguridad y la privacidad, y la transformación digital de la banca, la inversión, los seguros, el medio ambiente, la salud y otros campos.

Entre los representantes del sector, cabe destacar la presencia de Inga Karulaitytė-Kvainauskienė (experta en regulación, miembro del consejo de FintechHub LT); Andrius Ramoška (miembro de FINTECH Lituania/Infobalt, cofundador y CEO de Soverio); Andrius Petkevičius (CEO de BCCS – Blockchain Cybersecurity and Compliance Solutions – Cluster); Emilia Chehtova (Responsable de Políticas, Unidad de Política de Innovación y Acceso a la Financiación, DG Investigación e Innovación, Comisión Europea); Stéphane Ouaki (Jefe de Departamento, Consejo Europeo de Innovación y Agencia Ejecutiva para las PYME EISMEA, Comisión Europea); Liudmila Andreeva-Paskov (DG FISMA, Comisión Europea) y otros.

Las ponencias principales corrieron a cargo de dos figuras muy importantes en el mundo de la tecnología financiera. Por un lado, el profesor Andrei Kirilenko, Catedrático de Finanzas y Director Fundador del Cambridge Centre for Finance, Technology & Regulation (CCFTR) de la Universidad de Cambridge, habló sobre la selección óptima de criptoactivos. Por otra parte, el Catedrático Simon Chesterman, Decano de la Facultad de Derecho de la Universidad Nacional de Singapur y Director Principal de AI Governance en la empresa AI Singapore, pronunció una conferencia sobre los retos que plantea la regularización de la inteligencia artificial (IA).

Aparte de este acto, Arqus R&I ha planeado organizar otro seminario más en relación con la Inteligencia Artificial y la Transformación Digital, el cual tendrá lugar en Lyon, del 1 al 3 de junio. Además de estos, Arqus R&I ya organizó un primer seminario sobre Cambio Climático en Graz entre el 26 y 28 de abril, y Bergen acogerá otro sobre este mismo campo de estudio durante el 8 y 9 de junio. Con estos 4 seminarios, Arqus quiere dar visibilidad a estos temas, que son prioritarios para la Alianza y tienen un carácter transversal, por lo que también son ideales para fortalecer la colaboración en materia de investigación y potenciar la interdisciplinariedad.

El formato de todos estos seminarios es nuevo para los participantes: son eventos de corretaje, especialmente pensados para ampliar las redes de contactos de los participantes (una mezcla entre las técnicas del brokerage event y el networking). Durante este seminario sobre tecnología financiera, los investigadores y representantes de empresas se presentaron a sí mismos, hablaron sobre las disciplinas en las que trabajan, sus intereses, y su experiencia en proyectos de investigación e innovación.

En este evento, los participantes también pudieron conocer las convocatorias que la Comisión Europea abrirá próximamente (todas ellas, enmarcadas en programas e iniciativas como Horizonte Europa, el Fondo de Seguridad Interior, el programa Europa Digital, o las herramientas del Consejo Europeo de Innovación) y se les animó a debatir sobre la posibilidad de colaborar en proyectos de investigación.

Además, se les presentó una nueva iniciativa, el modelo de financiación seed funding, que servirá para apoyar la organización de encuentros entre distintos consorcios y otras actividades necesarias para preparar proyectos conjuntos competitivos. Está previsto que esta convocatoria se publique en junio de 2022.

Durante este seminario en Vilna, los participantes debatieron sobre tres asuntos de gran importancia: los retos relacionados con la velocidad, regulación y autonomía de la IA y las preocupaciones sobre opacidad.

Los retos relacionados con la velocidad y la regulación de la IA

Según Chesterman, un ejemplo muy bueno para comprender el reto que supone la velocidad de la IA es el flash crash de 2010, también conocido como crash de las 2:45, en el que el índice Dow Jones se hundió en unos 1.000 puntos en tan solo cinco minutos.

En 2015, 5 años después de lo sucedido, Navinder Singh Sarao fue detenido por utilizar presuntamente un programa automatizado para generar grandes órdenes de venta, presionando los precios a la baja, que luego cancelaba para comprar a los precios más bajos del mercado. Tras destaparse todo esto, fue juzgado y condenado en 2020.

Según Chesterman, las mismas normas se les aplican a un humano y a una máquina a la hora de comprar y vender acciones, «pero lo que descubrimos en 2020 fue el simple hecho de que las máquinas pueden hacer esto mucho más rápido. En lugar de que usted y yo realicemos una veintena de transacciones, y eso si fuéramos rápidos y operáramos con regularidad, existen algoritmos de negociación de alta frecuencia que realizan decenas de miles de operaciones por segundo. Así fue como la bolsa de Nueva York perdió un billón de dólares de valor».

Según el catedrático, una forma de abordar el problema de los algoritmos de negociación de alta frecuencia es imponer topes o disyuntores. La otra forma de gestionar la velocidad podría ser quitando algunos de los incentivos.

«Otro buen ejemplo de lo importante que es la velocidad se vio cuando una empresa comercial con sede en Chicago pagó decenas de millones de dólares para tender un cable de fibra óptica que fuera desde Chicago hasta Nueva Jersey y así reducir en tres milisegundos el tiempo que tardaba una señal en atravesar los cables telefónicos», afirma.

La autonomía de la IA

Chesterman afirma que el segundo reto para regular la IA tiene más que ver con su autonomía, es decir, con el hecho de que una máquina pueda tomar decisiones sin la supervisión de un humano. Esto es lo que ocurre con los vehículos autónomos, que preocupan a una gran parte de la población, que desconfía de que tomen las decisiones correctas. A este respecto, existe un debate en marcha en el que se asocia este problema con el dilema del tranvía, que es un experimento mental sobre ética en el que se plantea el siguiente escenario ficticio: un individuo tiene la opción de salvarles la vida a cinco personas que, de otra manera, van a ser atropelladas. Para ello, tiene que desviar un tranvía, pero a costa de matar a una sola persona.

«¿Deberían programarse los coches de forma que salvaran a niños a costa de matar al conductor? Respecto a este tema, se realizó una encuesta en la que se preguntó que, si el coche tenía que elegir entre matar a diez escolares o despeñarse por un acantilado y matar al conductor, qué debía hacer. La mayoría de los encuestados dijeron que debía matar al conductor y salvar a los niños. La siguiente pregunta fue: ¿se subiría alguna vez en un coche que estuviera programado para responder así? La mayoría contestó que no», relató el catedrático. En cualquier caso, aunque los fabricantes aseguran que darían prioridad a la seguridad del conductor, él cree que muchos de estos escenarios límite son bastante poco realistas.

Chesterman puso el foco en otro aspecto: «El reto legal gira en torno a la responsabilidad civil en caso de que un vehículo de este tipo hiera a alguien o se salte un semáforo en rojo: quién debe ser considerado culpable, si acaso se puede considerar que alguien lo es. Ninguno de los supuestos reviste mayor dificultad. De hecho, en cuanto a las lesiones, ya se ha dado algún caso. Si yo le hiriera mientras conduzco mi coche de forma negligente y le causara lesiones, usted o su familia podrían demandarme. Si, por el contrario, le hiriera porque se encuentra junto a mi coche y este explota, no tendría mucho sentido demandarme porque yo estaría muerto. Sin embargo, sí que podría demandar al fabricante del coche por responsabilidad civil del producto».

El catedrático considera que, en el futuro, veremos cómo la responsabilidad civil pasa de los conductores a los fabricantes, que deberán responder por los defectos de los vehículos autónomos. En estas situaciones, los seguros actuarán como intermediarios.

«Es obligatorio tener un seguro para conducir por las carreteras públicas, es decir, un seguro de responsabilidad civil individual para el conductor. Lo que seguramente veamos en las próximas décadas, a medida que el número de vehículos autónomos aumente, será un cambio por el cual se comience a exigir un seguro de responsabilidad civil del producto para el vehículo», afirma.

Preocupación sobre opacidad

Chesterman afirma que la opacidad de la IA supone otro reto de cara a su regulación. Las nuevas técnicas de aprendizaje automático, como las técnicas de aprendizaje profundo y las redes neuronales artificiales, surgieron en la última década. Estos sistemas de IA son complejos o, incluso, imposibles de entender, a pesar de los esfuerzos de los expertos.

«Estos sistemas pueden llegar a trabajar con millones de variables, y podría llegar a ser imposible que un sistema de IA diera una explicación comprensible para un humano. Si se simplifican, quizá se puedan entender mejor, pero podría ser a costa de la precisión», argumenta.

El catedrático afirma que es crucial que nos demos cuenta de que no necesitamos entender cómo funciona absolutamente todo en el mundo. Por ejemplo, cogemos aviones sin saberlo todo sobre aerodinámica o, en el caso de los estudios farmacéuticos, aceptamos trabajos basados en pruebas estadísticas o ensayos clínicos.

«Aun así, hay algunas decisiones judiciales en las que es importante que, por ejemplo, un juez dicte sentencia basándose no sólo en antecedentes o datos estadísticos, sino en el estudio individualizado del caso. Y que lo haga de forma explicable y comprensible para las partes implicadas», afirma.

Sin embargo, hay casos como el de Malasia, donde los jueces están utilizando programas informáticos en los juicios, los cuales utilizan algoritmos basados en sentencias anteriores para recomendarles qué decisiones judiciales tienen que tomar. En China, por su parte, los jueces usan sistemas de sentencias predictivas para lo mismo.

Los retos pueden superarse fácilmente

El catedrático sostiene que, aunque la velocidad, autonomía y opacidad de las IA plantean algunos desafíos, la mayoría de las actividades que realizan sus sistemas pueden tener una respuesta legal en la mayoría de las ocasiones.

Según explica, muchas directrices, marcos de trabajo y principios éticos empezaron a tomar forma en torno a 2016, después de que saliera a la luz el escándalo de Cambridge Analytica. Fue entonces cuando el mundo tomó conciencia de que las consecuencias que acarrea el uso de sistemas de IA iban más allá de un vehículo sin conductor atropellando a un peatón.

Chesterman también afirma que, a la hora de regular la IA, es esencial establecer normas relativas al control humano y la transparencia. Esto conlleva, por un lado, limitar la capacidad de desarrollar sistemas de IA que puedan escapar al control o a la contención humana y, por otro lado, que se pueda explicar claramente por qué se ha tomado una cierta decisión, que resulta contraria a los intereses de una parte.

«En el contexto de la UE, a menudo se habla del derecho a una explicación cuando se ha tomado una decisión contraria a nuestros intereses. Sin embargo, esta es una interpretación muy limitada de la transparencia, porque presupone que usted sabía que había una decisión sobre usted, que se enteró de ella y que iba en su contra, y que le será útil obtener una respuesta», dice.

Según argumenta a este respecto, dada la difusión de los algoritmos de IA en la toma de decisiones, la transparencia tiene que significar algo más que la posibilidad de impugnar decisiones adversas porque, en el futuro, se tomarán muchas decisiones sobre nosotros.El proyecto Arqus Research & Innovation (Arqus R&I) tiene por objeto reforzar la dimensión investigadora e innovadora en las actividades de la Alianza Arqus, que reúne a nueve universidades europeas. Además, el proyecto aborda los actuales retos de la sociedad global a través de la intensificación de la investigación conjunta, caracterizada por la búsqueda de la excelencia, la apertura, la transparencia y el compromiso efectivo con la sociedad.