Skip to content

MiFiD II: pruebas de algoritmos

HomeBlogsMiFiD II: pruebas de algoritmos

 Pruebas de algoritmos: ¿lo sabemos todo?

 

Desde hace unos años, tras el estallido de la crisis, la manipulación del mercado es objeto de una mayor atención si cabe que la que recibía con anterioridad a la misma. Bajo la presión de los gobiernos y la opinión popular, las autoridades reguladoras adoptaron en primer lugar medidas represivas sobre los actores percibidos (fondos de alto riesgo, empresas HFT, grupos de negociación por cuenta propia) y después sobre las propias prácticas. Poco a poco fue saliendo a la luz lo que solía ser un mundo opaco y misterioso, y términos como falsificación de datos, layering o momentum ignition se incorporaron a la jerga comercial cotidiana. Legislaciones como la directiva MiFID II y el reglamento MAR nacieron con el fin de poner freno a estas prácticas. El Reglamento sobre el abuso de mercado (MAR), en vigor desde el 3 de julio de 2016, se centra en erradicar los abusos de los algoritmos y en penalizar los algoritmos simplistas e imprudentes que suponen una amenaza para la integridad del mercado. Según lo previsto en la Directiva relativa a los mercados de instrumentos financieros (MiFID) II, las pruebas de los algoritmos fuera de línea serán obligatorias a partir del 3 de enero de 2018.

Ahora que se está obligando a los actores a poner en práctica sistemas de supervisión y elaboración de informes destinados a detectar cualquier transacción que pueda considerarse un abuso de conformidad con MAR, cabría pensar que todo está bien. No obstante, si indagamos un poco, nos daremos cuenta de que la mayoría de las medidas adoptadas por los actores se quedan solo en la superficie. Muchas empresas podrían pensar que, en la mayoría de los casos, los abusos intencionados no constituyen un problema, ya que disponen de medios de comprobación adecuados para evitarlos. El problema radica en que no todos los abusos son deliberados. ¿Qué ocurre cuando un algoritmo reacciona de una forma inesperada ante las condiciones del mercado? ¿Qué ocurre cuando reacciona de forma inesperada ante otros algoritmos?

No todos los algoritmos se crean del mismo modo

Para saber a qué empresas afectan las medidas sobre los abusos previstas por MAR, es necesario examinar las definiciones de abuso del mercado establecidas y qué constituye una negociación algorítmica. MAR incluye en su definición de abuso una gran diversidad de comportamientos con distintos grados de especificidad. Estos incluyen algunas conductas que “puedan crear condiciones de negociación no equitativas”. El verbo “poder” aparece abundantemente en las definiciones de manipulación del mercado, equiparando un informe obligatorio sobre una orden sospechosa a una admisión de culpa. Desde el 3 de julio de 2016, todas las personas implicadas “profesionalmente en la organización o ejecución de transacciones” elaborarán estos informes de forma inmediata y antes de llevar a cabo una investigación completa. Los algoritmos también se definen de manera amplia y efectiva como cualquier elemento en el que cualquier parámetro (al margen únicamente del mercado de ejecución se configura de manera no manual. Esta definición tiene poco que ver con los sofisticados algoritmos autónomos que podrían dar lugar a condiciones de mercado no equitativas.

Si bien muchas empresas de negociación podrían considerar que mantienen una actuación irreprochable en lo que respecta a los abusos de mercado intencionados, cabe la posibilidad de que cometan abusos no intencionados en cualquier momento. Ahora las empresas deben evaluar si sus estrategias de negociación pueden ser demasiado simplistas o imprudentes y contribuir accidentalmente a que se den condiciones anómalas o no equitativas de distintas formas. Estas abarcan desde conductas bastante genéricas que pueden desestabilizar el mercado y sobrecargar un registro de órdenes, hasta abusos muy concretos, como la falsificación de datos y el layering. El comportamiento de otros actores del mercado influye en gran medida en los algoritmos y, dado que cada vez son más las negociaciones que se llevan a cabo de forma automática, otros algoritmos actúan como esos otros actores del mercado. Si interaccionan de una forma imprevista, por ejemplo, acentuando y alimentando una tendencia previa que puede incluir señales falsas o engañosas, según la definición de MAR, se habrá cometido un abuso. En consecuencia, las personas físicas y jurídicas que empleen un algoritmo involucrado en un evento de estas características podrían ser enjuiciadas y, en la mayor parte del territorio de la UE, recibir penas de prisión.

El mercado ha llegado a un punto en el que existen las mismas probabilidades de negociar a través de un ordenador que con un ser humano y es posible que situaciones como las antes descritas se den cada vez con mayor frecuencia. Lo más preocupante es que, a pesar de los actuales procedimientos de prueba fuera de línea, muchos no sabrán cómo se comportarán los algoritmos en el mundo real hasta que el daño ya esté hecho y el incidente se haya notificado a los organismos reguladores en conformidad con MAR (desde el 3 de julio de 2016).

¿Las pruebas son adecuadas para su cometido?

A pesar de que los algoritmos se prueban con datos de mercado históricos y se someten a pruebas de resistencia muy estrictas, las características de estos entornos de prueba hacen que los métodos actuales sean prácticamente inútiles para prevenir infracciones de procedimientos de negociación equitativos y ordenados. Dado que los datos que se introducen en estos algoritmos son históricos, en la práctica se trata de una reproducción enlatada. Es imposible que el “mercado” histórico reaccione al comportamiento del algoritmo en la prueba. Es imposible que cada uno de los actores de este mercado histórico reaccione realmente ante las condiciones del mercado que se han modificado como consecuencia de las acciones de un algoritmo.

Por lo tanto, estas pruebas de algoritmos son en gran medida insuficientes para los requisitos de ensayo obligatorios a los que están sujetas todas las empresas de negociación de conformidad con MiFID II, quedando estas expuestas al riesgo de utilizar algoritmos que podrían dar lugar a abusos no intencionados según lo dispuesto en MAR. Sin la posibilidad de simular y probar anomalías mediante emulaciones reactivas de instrumentos reales con una respuesta realista de los mercados, las empresas de negociación no podrán certificar sus algoritmos de conformidad con MiFID II y desde el 3 de julio de 2016 se enfrentan a una amenaza existencial según MAR. Y lo peor de todo es que muchas empresas de momento ni siquiera lo saben.

Las sanciones en caso de abuso estipuladas en MAR son muy cuantiosas: 15 millones de euros o el 15 % del volumen de negocios en el caso de las personas jurídicas y 5 millones de euros en el caso de las personas físicas. En toda Europa (excepto Reino Unido y Dinamarca, donde la sanción puede ser todavía mayor) se prevé una pena de prisión de cuatro años para las personas físicas culpables de manipulación.

Eddie Thorn, Director de SQS, empresa que, en colaboración con TraderServe, ofrece la plataforma de pruebas de estabilidad algorítmica AlgoGuard, disponible en la extranet financiera PrizmNet de Colt.

Recent blog posts

Ciberseguridad: la necesidad de innovar en una empresa digital

En 2018 la transformación digital de las empresas es ya una realidad consumada. Todo está interconectado y la ...
Continue Reading

La nube inteligente de Colt con AWS

Amazon Web Services (AWS) Direct Connect es un flujo de datos privado de altas prestaciones que conecta los ...
Continue Reading

Colt gana dos importantes premios en el Global Carrier Awards

Escrito por Andrew Edison Colt’s VP of Wholesale En la decimoquinta entrega anual de los Global Carrier Awards, ...
Continue Reading