MiFiD II: pruebas de algoritmos


 Pruebas de algoritmos: ¿lo sabemos todo?

 

Desde hace unos años, tras el estallido de la crisis, la manipulación del mercado es objeto de una mayor atención si cabe que la que recibía con anterioridad a la misma. Bajo la presión de los gobiernos y la opinión popular, las autoridades reguladoras adoptaron en primer lugar medidas represivas sobre los actores percibidos (fondos de alto riesgo, empresas HFT, grupos de negociación por cuenta propia) y después sobre las propias prácticas. Poco a poco fue saliendo a la luz lo que solía ser un mundo opaco y misterioso, y términos como falsificación de datos, layering o momentum ignition se incorporaron a la jerga comercial cotidiana. Legislaciones como la directiva MiFID II y el reglamento MAR nacieron con el fin de poner freno a estas prácticas. El Reglamento sobre el abuso de mercado (MAR), en vigor desde el 3 de julio de 2016, se centra en erradicar los abusos de los algoritmos y en penalizar los algoritmos simplistas e imprudentes que suponen una amenaza para la integridad del mercado. Según lo previsto en la Directiva relativa a los mercados de instrumentos financieros (MiFID) II, las pruebas de los algoritmos fuera de línea serán obligatorias a partir del 3 de enero de 2018.

Ahora que se está obligando a los actores a poner en práctica sistemas de supervisión y elaboración de informes destinados a detectar cualquier transacción que pueda considerarse un abuso de conformidad con MAR, cabría pensar que todo está bien. No obstante, si indagamos un poco, nos daremos cuenta de que la mayoría de las medidas adoptadas por los actores se quedan solo en la superficie. Muchas empresas podrían pensar que, en la mayoría de los casos, los abusos intencionados no constituyen un problema, ya que disponen de medios de comprobación adecuados para evitarlos. El problema radica en que no todos los abusos son deliberados. ¿Qué ocurre cuando un algoritmo reacciona de una forma inesperada ante las condiciones del mercado? ¿Qué ocurre cuando reacciona de forma inesperada ante otros algoritmos?

No todos los algoritmos se crean del mismo modo

Para saber a qué empresas afectan las medidas sobre los abusos previstas por MAR, es necesario examinar las definiciones de abuso del mercado establecidas y qué constituye una negociación algorítmica. MAR incluye en su definición de abuso una gran diversidad de comportamientos con distintos grados de especificidad. Estos incluyen algunas conductas que “puedan crear condiciones de negociación no equitativas”. El verbo “poder” aparece abundantemente en las definiciones de manipulación del mercado, equiparando un informe obligatorio sobre una orden sospechosa a una admisión de culpa. Desde el 3 de julio de 2016, todas las personas implicadas “profesionalmente en la organización o ejecución de transacciones” elaborarán estos informes de forma inmediata y antes de llevar a cabo una investigación completa. Los algoritmos también se definen de manera amplia y efectiva como cualquier elemento en el que cualquier parámetro (al margen únicamente del mercado de ejecución se configura de manera no manual. Esta definición tiene poco que ver con los sofisticados algoritmos autónomos que podrían dar lugar a condiciones de mercado no equitativas.

Si bien muchas empresas de negociación podrían considerar que mantienen una actuación irreprochable en lo que respecta a los abusos de mercado intencionados, cabe la posibilidad de que cometan abusos no intencionados en cualquier momento. Ahora las empresas deben evaluar si sus estrategias de negociación pueden ser demasiado simplistas o imprudentes y contribuir accidentalmente a que se den condiciones anómalas o no equitativas de distintas formas. Estas abarcan desde conductas bastante genéricas que pueden desestabilizar el mercado y sobrecargar un registro de órdenes, hasta abusos muy concretos, como la falsificación de datos y el layering. El comportamiento de otros actores del mercado influye en gran medida en los algoritmos y, dado que cada vez son más las negociaciones que se llevan a cabo de forma automática, otros algoritmos actúan como esos otros actores del mercado. Si interaccionan de una forma imprevista, por ejemplo, acentuando y alimentando una tendencia previa que puede incluir señales falsas o engañosas, según la definición de MAR, se habrá cometido un abuso. En consecuencia, las personas físicas y jurídicas que empleen un algoritmo involucrado en un evento de estas características podrían ser enjuiciadas y, en la mayor parte del territorio de la UE, recibir penas de prisión.

El mercado ha llegado a un punto en el que existen las mismas probabilidades de negociar a través de un ordenador que con un ser humano y es posible que situaciones como las antes descritas se den cada vez con mayor frecuencia. Lo más preocupante es que, a pesar de los actuales procedimientos de prueba fuera de línea, muchos no sabrán cómo se comportarán los algoritmos en el mundo real hasta que el daño ya esté hecho y el incidente se haya notificado a los organismos reguladores en conformidad con MAR (desde el 3 de julio de 2016).

¿Las pruebas son adecuadas para su cometido?

A pesar de que los algoritmos se prueban con datos de mercado históricos y se someten a pruebas de resistencia muy estrictas, las características de estos entornos de prueba hacen que los métodos actuales sean prácticamente inútiles para prevenir infracciones de procedimientos de negociación equitativos y ordenados. Dado que los datos que se introducen en estos algoritmos son históricos, en la práctica se trata de una reproducción enlatada. Es imposible que el “mercado” histórico reaccione al comportamiento del algoritmo en la prueba. Es imposible que cada uno de los actores de este mercado histórico reaccione realmente ante las condiciones del mercado que se han modificado como consecuencia de las acciones de un algoritmo.

Por lo tanto, estas pruebas de algoritmos son en gran medida insuficientes para los requisitos de ensayo obligatorios a los que están sujetas todas las empresas de negociación de conformidad con MiFID II, quedando estas expuestas al riesgo de utilizar algoritmos que podrían dar lugar a abusos no intencionados según lo dispuesto en MAR. Sin la posibilidad de simular y probar anomalías mediante emulaciones reactivas de instrumentos reales con una respuesta realista de los mercados, las empresas de negociación no podrán certificar sus algoritmos de conformidad con MiFID II y desde el 3 de julio de 2016 se enfrentan a una amenaza existencial según MAR. Y lo peor de todo es que muchas empresas de momento ni siquiera lo saben.

Las sanciones en caso de abuso estipuladas en MAR son muy cuantiosas: 15 millones de euros o el 15 % del volumen de negocios en el caso de las personas jurídicas y 5 millones de euros en el caso de las personas físicas. En toda Europa (excepto Reino Unido y Dinamarca, donde la sanción puede ser todavía mayor) se prevé una pena de prisión de cuatro años para las personas físicas culpables de manipulación.

Eddie Thorn, Director de SQS, empresa que, en colaboración con TraderServe, ofrece la plataforma de pruebas de estabilidad algorítmica AlgoGuard, disponible en la extranet financiera PrizmNet de Colt.

Caso de éxito

CEDRO: una reconversión tecnológica integral de la mano de Colt

Reconversión tecnológica integral de CEDRO, digitalización gracias a las lineas Ethernet, Voz sobre IP y Alojamiento de datos.

Productos relacionados

Managed Firewall

Proteja su empresa de las amenazas de ciberataques con Colt Managed Firewall. Las empresas han reconocido desde hace mucho tiempo que los datos que poseen y las aplicaciones en las que confían constituyen el elemento vital de sus

Blog

Colt participa en el Foro ASLAN “Todo Conectado”

El martes, día 23 de octubre, Colt Technology Services participó en el Foro ASLAN bajo el título “Todo conectado: Integración de servicios e infraestructuras desde la nube”. …

Contacta con un especialista

900 800 607

Chat en vivo con Ventas

Horario de chat de 9am a 5pm

Habla con nosotros

Contacta nuestro equipo de venta