Las prácticas comerciales malévolas no son nuevas. Las luchas contra el comercio de información privilegiada, así como las diferentes formas de manipulación del mercado, representan una batalla de larga data para los reguladores.
En los últimos abriles, sin embargo, los expertos han hablado sobre nuevas amenazas a nuestros sistemas financieros. Los desarrollos en AI significan que los bots comerciales automatizados no solo son más inteligentes, sino que también son más independientes. Si bien los algoritmos básicos responden a los comandos programados, los nuevos bots pueden aprender de la experiencia, sintetizar rápidamente grandes cantidades de información y ejecutar de forma autónoma al realizar operaciones.
Según los académicos, un escenario de riesgo implica la colaboración entre los bots de IA. Imagínese: cientos de perfiles de redes sociales impulsados por la IA comienzan a aparecer en línea, tejiendo narraciones sobre ciertas compañías. El spread de información no es necesariamente copiado, pero puede ser la amplificación de las noticias existentes. En respuesta, los usuarios reales de las redes sociales comienzan a reaccionar, destacando el mensaje seleccionado de los bots.
Como el mercado es influenciado por la información elaborada, el roboadvisor de un inversor tiene ganancias en las ganancias, habiendo coordinado con los bots de noticias. Otros inversores, que no tenían la información privilegiada, perdieron al cronometrar mal el mercado. El problema es que el inversionista que se beneficia ni siquiera sepa el esquema. Esto significa que los cargos de manipulación del mercado no pueden ser necesariamente efectivos, incluso si las autoridades pueden ver que un comerciante se ha valido de las prácticas distorsionadas.
Las plataformas sociales están cambiando el comercio
Alessio Azzutti, profesor asistente de Derecho y Tecnología (FinTech) de la Universidad de Glasgow, le dijo a Euronews que el escenario preparatorio sigue siendo una hipótesis, ya que no hay suficiente evidencia para demostrar que está sucediendo. Aun así, explica que se están llevando a cabo esquemas similares y menos sofisticados, particularmente en “mercados de activos criptográficos y mercados financieros descentralizados”.
“Los actores maliciosos … pueden ser muy activos en plataformas de redes sociales y plataformas de correo como Telegram, donde pueden alentar a los miembros a invertir su dinero en Defi o en un activo criptográfico determinado, para beneficiarse a sí mismos”, explicó Azzutti.
“Podemos observar la actividad directa de los actores maliciosos humanos, pero también los que despliegan bots de IA”.
Agregó que los agentes que difunden información errónea pueden no ser necesariamente muy sofisticados, pero aún tienen el poder de “contaminar chats a través de noticias falsas para engañar a los inversores minoristas”.
“Y así, la pregunta es que, si un novato, si un novato por su cuenta en su oficina en casa puede ganar este tipo de manipulaciones, ¿cuáles son los límites para que los jugadores más grandes logren el mismo objetivo, en mercados aún más sofisticados?”
La forma en que la información del mercado ahora se extiende en línea, de forma generalizada, rápida y descoordinada, también fomenta diferentes tipos de comercio. Es más probable que los inversores minoristas sigan tendencias, en lugar de hacer su propio análisis, lo que puede desestabilizar el mercado y ser explotado por los bots de IA.
La saga GameStop ampliamente citada es un buen ejemplo de comercio de masa, cuando los usuarios en un foro de Reddit decidieron comprar acciones en la compañía de videojuegos en masa. Los grandes fondos de cobertura apostaban a que el precio caería, y luego perdieron cuando se disparó. Muchos expertos dicen que este no fue un caso de colusión, ya que no se creó ningún acuerdo oficial.
Un portavoz de ESMA, la Autoridad Europea de Valores y Mercados, le dijo a Euronews que el potencial de los bots de IA para manipular los mercados y beneficiarse de los movimientos es “una preocupación realista”, aunque enfatizó que no tienen “información o estadísticas específicas sobre esto ya sucediendo”.
“Estos riesgos se intensifican aún más por el papel de las redes sociales, que pueden servir como un canal de transmisión rápido para narrativas falsas o engañosas que influyen en la dinámica del mercado. Un tema esencial es el nivel de control humano sobre estos sistemas, ya que los mecanismos de supervisión tradicionales pueden ser insuficientes”, dijo el portavoz.
ESMA destacó que estaba “monitoreando activamente” los desarrollos de IA.
¿Está tira la regulación?
Un desafío para los reguladores es que la colaboración entre los agentes de IA no se puede rastrear fácilmente.
“No están enviando correos electrónicos, no se reúnen entre sí. Simplemente aprenden con el tiempo la mejor organización y, por lo tanto, la forma tradicional de detectar la colusión no funciona con AI”, dijo a Euronews, profesor de finanzas y economía de la Escuela Wharton de la Universidad de Pensilvania.
“La regulación tiene que intensificar y encontrar nuevas estrategias para lidiar con eso”, argumentó, y agregó que hay una falta de datos confiables sobre exactamente cómo los comerciantes están utilizando AI.
Filippo Annunziata, profesor de mercados financieros y derecho bancario en la Universidad de Bocconi, le dijo a Euronews que las reglas actuales de la UE “no deberían revisarse”, refiriéndose al Reglamento sobre Abuso de Mercado (MAR) y la Directiva II sobre Mercados de Instrumentos Financieros (MIFID II).
Aun así, argumentó que “los supervisores deben estar equipados con herramientas más sofisticadas para identificar la posible manipulación del mercado”.
Añadió: “Incluso sugiero que le preguntemos a las personas que desarrollan herramientas de IA para el comercio en los mercados, etc., incluyan interruptores de circuitos en estas herramientas de IA. Esto los obligaría a detenerse incluso antes de que ocurra el evento de manipulación”.
En términos del panorama legal actual, también existe la cuestión de la responsabilidad cuando un agente de IA actúa de manera maliciosa, independiente de la intención humana.
Esto es especialmente relevante en el caso del llamado comercio de caja negra, donde un bot ejecuta operaciones sin revelar su funcionamiento interno. Para abordar esto, algunos expertos creen que la IA debe estar diseñada para ser más transparente, para que los reguladores puedan comprender la razón detrás de las decisiones.
Otra idea es crear nuevas leyes sobre la responsabilidad, de modo que los actores responsables del despliegue de IA puedan ser responsables de la manipulación del mercado. Esto podría aplicarse en los casos en que no tenían la intención de engañar a los inversores.
“Es un poco como la tortuga y la liebre”, dijo Annunziata.
“Los supervisores tienden a ser tortugas, pero los manipuladores que usan algoritmos son liebres, y es difícil ponerse al día con ellos”.
(Tagstotranslate) Bolsa de valores (T) Comercio (T) Prácticas ilegales (T) Mercados (T) Inteligencia artificial
