Friday 11 August 2017

Melhor Linguagem De Programação Para Sistemas De Negociação Algorítmica


Melhor linguagem de programação para Algorithmic Trading Systems?


Por Michael Halls-Moore em 26 de julho de 2013


Uma das perguntas mais freqüentes que recebo no mailbag QS é "Qual é a melhor linguagem de programação para negociação algorítmica?". A resposta curta é que não há "melhor" linguagem. Parâmetros de estratégia, desempenho, modularidade, desenvolvimento, resiliência e custo devem ser considerados. Este artigo descreverá os componentes necessários de uma arquitetura de sistema de negociação algorítmica e como as decisões relativas à implementação afetam a escolha da linguagem.


Em primeiro lugar, serão consideradas as principais componentes de um sistema de negociação algorítmica, tais como as ferramentas de pesquisa, otimizador de portfólio, gerente de risco e mecanismo de execução. Posteriormente, diferentes estratégias de negociação serão examinadas e como elas afetam a concepção do sistema. Em especial, a frequência das negociações e o provável volume de transacções serão discutidos.


Uma vez selecionada a estratégia de negociação, é necessário arquitetar todo o sistema. Isso inclui a escolha do hardware, do (s) sistema (s) operacional (is) e da resiliência do sistema contra eventos raros, potencialmente catastróficos. Enquanto a arquitetura está sendo considerada, devemos ter devidamente em conta o desempenho - tanto para as ferramentas de pesquisa como para o ambiente de execução ao vivo.


O que é o sistema de negociação tentando fazer?


Antes de decidir sobre o "melhor" idioma com o qual escrever um sistema automatizado de negociação é necessário definir os requisitos. O sistema vai ser puramente baseado na execução? O sistema exigirá um módulo de gerenciamento de risco ou construção de portfólio? O sistema exigirá um backtester de alto desempenho? Para a maioria das estratégias, o sistema de negociação pode ser dividido em duas categorias: Pesquisa e geração de sinais.


A pesquisa se preocupa com a avaliação do desempenho de uma estratégia em relação aos dados históricos. O processo de avaliação de uma estratégia de negociação sobre dados de mercado anteriores é conhecido como backtesting. O tamanho dos dados ea complexidade algorítmica terão um grande impacto na intensidade computacional do backtester. A velocidade ea simultaneidade da CPU são frequentemente os fatores limitantes na otimização da velocidade de execução da pesquisa.


Geração de sinal está preocupado com a geração de um conjunto de sinais de negociação a partir de um algoritmo e enviar tais ordens para o mercado, geralmente através de uma corretora. Para certas estratégias é necessário um alto nível de desempenho. Problemas de E / S, como largura de banda de rede e latência, são freqüentemente o fator limitante na otimização de sistemas de execução. Assim, a escolha das linguagens para cada componente de todo o seu sistema pode ser bastante diferente.


Tipo, freqüência e volume da estratégia


O tipo de estratégia algorítmica empregada terá um impacto substancial na concepção do sistema. Será necessário considerar os mercados sendo negociados, a conectividade com fornecedores de dados externos, a freqüência e o volume da estratégia, o trade-off entre facilidade de desenvolvimento e otimização de desempenho, bem como qualquer hardware personalizado, Servidores, GPUs ou FPGAs que possam ser necessários.


As escolhas tecnológicas para uma estratégia de ações de baixa freqüência nos EUA serão muito diferentes das de uma estratégia de arbitragem estatística de alta freqüência negociada no mercado de futuros. Antes da escolha da linguagem muitos fornecedores de dados devem ser avaliados que pertencem a uma estratégia à mão.


Será necessário considerar a conectividade com o fornecedor, a estrutura de qualquer API, a oportunidade dos dados, os requisitos de armazenamento e a resiliência em face de um fornecedor ficar offline. Também é aconselhável possuir acesso rápido a vários fornecedores! Vários instrumentos têm todos os seus próprios caprichos de armazenamento, exemplos dos quais incluem múltiplos símbolos ticker para ações e datas de vencimento para futuros (para não mencionar quaisquer dados OTC específicos). Isso precisa ser incorporado ao design da plataforma.


Freqüência da estratégia é provável que seja um dos maiores drivers de como a pilha de tecnologia será definida. Estratégias empregando dados mais freqüentemente do que minuciosamente ou em segundo lugar barras exigem consideração significativa com relação ao desempenho.


Uma estratégia que ultrapassa as barras secundárias (isto é, dados de carraça) conduz a um design conduzido pelo desempenho como o requisito primário. Para estratégias de alta freqüência, uma quantidade substancial de dados de mercado precisará ser armazenada e avaliada. Software como HDF5 ou kdb + são comumente usados ​​para essas funções.


Para processar os volumes extensos de dados necessários para aplicações HFT, um sistema de backtester e de execução extensivamente otimizado deve ser usado. C / C ++ (possivelmente com algum assembler) é provável que o candidato linguagem mais forte. As estratégias de freqüência ultra-alta quase certamente exigirão hardware personalizado, como FPGAs, troca de co-location e kernal / interface de rede.


Sistemas de Pesquisa


Sistemas de pesquisa normalmente envolvem uma mistura de desenvolvimento interativo e scripting automatizado. O primeiro ocorre frequentemente dentro de um IDE, como Visual Studio, MatLab ou R Studio. Este último envolve cálculos numéricos extensos sobre vários parâmetros e pontos de dados. Isso leva a uma escolha de linguagem proporcionando um ambiente direto para testar o código, mas também fornece desempenho suficiente para avaliar estratégias em várias dimensões de parâmetro.


IDEs típicos neste espaço incluem Microsoft Visual C ++ / C #, que contém utilitários de depuração extensos, capacidades de conclusão de código (via "Intellisense") e visões gerais diretas de toda a pilha de projeto (através do banco de dados ORM, LINQ); MatLab. Que é projetado para a álgebra linear numerosa extensiva e operações vectorized, mas em uma maneira console interativa; R Studio. Que envolve o console de linguagem estatística R em um IDE completo; Eclipse IDE para Linux Java e C ++; E IDEs semi-proprietários como Enthought Canopy para Python, que incluem bibliotecas de análise de dados como NumPy. SciPy. Scikit-learn e pandas em um único ambiente interativo (console).


Para backtesting numérico, todos os idiomas acima são adequados, embora não seja necessário utilizar uma GUI / IDE, pois o código será executado "em segundo plano". A principal consideração nesta fase é a da velocidade de execução. Uma linguagem compilada (como C ++) é frequentemente útil se as dimensões do parâmetro backtesting forem grandes. Lembre-se que é necessário ser cauteloso de tais sistemas, se esse for o caso!


Linguagens interpretadas como Python muitas vezes fazem uso de bibliotecas de alto desempenho como NumPy / pandas para a etapa de backtesting, a fim de manter um grau razoável de competitividade com equivalentes compilados. Em última análise, o idioma escolhido para o backtesting será determinado por necessidades específicas algorítmicas, bem como a gama de bibliotecas disponíveis no idioma (mais sobre isso abaixo). No entanto, a linguagem utilizada para o backtester e os ambientes de pesquisa pode ser completamente independente daqueles usados ​​nos componentes de construção de portfólio, gerenciamento de risco e execução, como será visto.


Construção de Portfólio e Gerenciamento de Risco


Os componentes de construção de carteira e gerenciamento de risco são freqüentemente ignorados pelos comerciantes de algoritmos de varejo. Isso é quase sempre um erro. Essas ferramentas fornecem o mecanismo pelo qual o capital será preservado. Eles não só tentam aliviar o número de apostas "arriscadas", mas também minimizam o churn das próprias negociações, reduzindo os custos de transação.


Versões sofisticadas desses componentes podem ter um efeito significativo na qualidade e consistência da lucratividade. É fácil criar um estável de estratégias, pois o mecanismo de construção do portfólio e o gerenciador de riscos podem ser facilmente modificados para lidar com vários sistemas. Assim, devem ser considerados componentes essenciais no início do projeto de um sistema de negociação algorítmica.


O trabalho do sistema de construção de carteira é ter um conjunto de negócios desejados e produzir o conjunto de negócios reais que minimizam churn, manter exposições a vários fatores (como setores, classes de ativos, volatilidade etc) e otimizar a alocação de capital para vários Estratégias em um portfólio.


A construção da carteira reduz-se frequentemente a um problema de álgebra linear (tal como uma factorização de matriz) e, portanto, o desempenho é altamente dependente da eficácia da implementação de álgebra linear numérica disponível. As bibliotecas comuns incluem uBLAS. LAPACK e NAG para C ++. O MatLab também possui operações de matriz amplamente otimizadas. Python utiliza NumPy / SciPy para tais computações. Uma carteira freqüentemente reequilibrada exigirá uma biblioteca de matriz compilada (e bem otimizada!) Para realizar essa etapa, de modo a não encolher o sistema de negociação.


A gestão de risco é outra parte extremamente importante de um sistema de negociação algorítmica. O risco pode vir de várias formas: Aumento da volatilidade (embora isso possa ser visto como desejável para certas estratégias!), Correlações aumentadas entre as classes de ativos, padrão de contraparte, interrupções de servidor, eventos de "cisne preta" e bugs não detectados no código de negociação, para nomear alguns.


Os componentes de gerenciamento de risco tentam antecipar os efeitos da volatilidade excessiva e correlação entre as classes de ativos e seus efeitos subseqüentes sobre o capital comercial. Muitas vezes isso se reduz a um conjunto de cálculos estatísticos, como Monte Carlo "testes de estresse". Isso é muito semelhante às necessidades computacionais de um mecanismo de preços de derivativos e, como tal, será ligado à CPU. Estas simulações são altamente paralelas (ver abaixo) e, até certo ponto, é possível "lançar hardware no problema".


Sistemas de Execução


O trabalho do sistema de execução é receber sinais de negociação filtrada da construção de carteira e componentes de gerenciamento de risco e enviá-los para uma corretagem ou outros meios de acesso ao mercado. Para a maioria das estratégias de negociação de algoritmos de varejo, isso envolve uma conexão API ou FIX para uma corretora, como Interactive Brokers. As principais considerações ao decidir sobre uma linguagem incluem a qualidade da API, a disponibilidade do wrapper de linguagem para uma API, a freqüência de execução ea antecipação do deslizamento.


A "qualidade" da API refere-se a quão bem documentada ela é, que tipo de desempenho ela fornece, se precisa de software autônomo para ser acessado ou se um gateway pode ser estabelecido de uma forma sem cabeça (ou seja, sem GUI). No caso de Interactive Brokers, a ferramenta Trader WorkStation precisa estar em execução em um ambiente GUI para acessar sua API. Uma vez eu tive que instalar uma edição Desktop Ubuntu em um servidor de nuvem Amazon para acessar Interactive Brokers remotamente, puramente por esse motivo!


A maioria das APIs fornecerá uma interface C ++ e / ou Java. Normalmente é a comunidade para desenvolver invólucros específicos de linguagem para C #, Python, R, Excel e MatLab. Note que com cada plugin adicional utilizado (especialmente API wrappers) há espaço para bugs a fluência no sistema. Sempre testar plugins deste tipo e garantir que eles são mantidos ativamente. Um indicador valioso é ver quantas novas atualizações de um codebase foram feitas nos últimos meses.


A freqüência de execução é de extrema importância no algoritmo de execução. Observe que centenas de pedidos podem ser enviados a cada minuto e, como tal, o desempenho é crítico. Slippage será incorrido através de um sistema de execução mal executando e isso terá um impacto dramático sobre a rentabilidade.


As linguagens estaticamente tipadas (veja abaixo), como C ++ / Java, geralmente são ótimas para execução, mas há um trade-off no tempo de desenvolvimento, teste e facilidade de manutenção. As linguagens de tipo dinâmico, como Python e Perl, são agora geralmente "suficientemente rápidas". Certifique-se sempre de que os componentes são projetados de forma modular (veja abaixo) para que possam ser "trocados" com o sistema escalando.


Processo de planejamento e desenvolvimento arquitetônico


Os componentes de um sistema de negociação, suas necessidades de freqüência e volume foram discutidos acima, mas a infra-estrutura do sistema ainda não foi coberta. Aqueles que atuam como um comerciante de varejo ou trabalhando em um pequeno fundo provavelmente será "vestindo muitos chapéus". Será necessário estar cobrindo o modelo alfa, os parâmetros de gerenciamento e execução de riscos, e também a implementação final do sistema. Antes de aprofundar em linguagens específicas o projeto de uma arquitetura de sistema ideal será discutido.


Separação de preocupações


Uma das decisões mais importantes que devem ser tomadas desde o início é como "separar as preocupações" de um sistema de comércio. No desenvolvimento de software, isso significa essencialmente como quebrar os diferentes aspectos do sistema de comércio em componentes modulares separados.


Ao expor as interfaces em cada um dos componentes, é fácil trocar partes do sistema por outras versões que auxiliem o desempenho, a confiabilidade ou a manutenção, sem modificar nenhum código de dependência externo. Esta é a "melhor prática" para esses sistemas. Para estratégias em freqüências mais baixas tais práticas são aconselhadas. Para negociação de freqüência ultra alta o livro de regras pode ter que ser ignorado às custas de ajustar o sistema para ainda mais desempenho. Um sistema mais fortemente acoplado pode ser desejável.


Criar um mapa de componentes de um sistema de negociação algorítmico vale um artigo em si. No entanto, uma abordagem ótima é certificar-se de que há componentes separados para as entradas de dados históricos e em tempo real do mercado, armazenamento de dados, API de dados de acesso, backtester, parâmetros de estratégia, construção de portfólio, gerenciamento de riscos e sistemas de execução automatizada.


Por exemplo, se o armazenamento de dados que está sendo usado está underperforming, até mesmo em níveis significativos de otimização, ele pode ser trocado com rewrites mínimo para a ingestão de dados ou API de acesso a dados. Tanto quanto o backtestter e componentes subsequentes estão em causa, não há diferença.


Outro benefício de componentes separados é que ele permite que uma variedade de linguagens de programação para ser usado no sistema global. Não é necessário restringir-se a uma única língua se o método de comunicação dos componentes for independente da língua. Este será o caso se eles estão se comunicando via TCP / IP, ZeroMQ ou algum outro protocolo independente de linguagem.


Como exemplo concreto, considere o caso de um sistema de backtesting sendo escrito em C ++ para o desempenho de "número crunching", enquanto o gerenciador de portfólio e sistemas de execução são escritos em Python usando SciPy e IBPy.


Considerações sobre desempenho


O desempenho é uma consideração significativa para a maioria das estratégias de negociação. Para estratégias de freqüência mais alta, é o fator mais importante. "Desempenho" cobre uma ampla gama de problemas, tais como velocidade de execução algorítmica, latência de rede, largura de banda, E / S de dados, paralelismo e paralelismo e escalonamento. Cada uma dessas áreas são cobertas individualmente por grandes livros didáticos, portanto, este artigo apenas arranhará a superfície de cada tópico. A arquitetura ea escolha da língua serão agora discutidas em termos de seus efeitos sobre o desempenho.


A sabedoria prevalecente como afirmado por Donald Knuth. Um dos pais da Ciência da Computação, é que "a otimização prematura é a raiz de todo o mal". Este é quase sempre o caso - exceto quando a construção de um algoritmo de negociação de alta freqüência! Para aqueles que estão interessados ​​em estratégias de baixa freqüência, uma abordagem comum é construir um sistema da maneira mais simples possível e apenas otimizar como gargalos começam a aparecer.


As ferramentas de criação de perfil são usadas para determinar onde surgem gargalos. Perfis podem ser feitos para todos os fatores listados acima, em um ambiente MS Windows ou Linux. Existem muitas ferramentas de sistema operacional e linguagem disponíveis para fazê-lo, bem como utilitários de terceiros. A escolha da língua será agora discutida no contexto do desempenho.


C ++, Java, Python, R e MatLab contêm bibliotecas de alto desempenho (tanto como parte de seu padrão ou externamente) para estrutura de dados básicos e trabalho algorítmico. C ++ é fornecido com a Biblioteca de modelos padrão, enquanto o Python contém NumPy / SciPy. Tarefas matemáticas comuns devem ser encontradas nessas bibliotecas e raramente é benéfico escrever uma nova implementação.


Uma exceção é se a arquitetura de hardware altamente personalizada é necessária e um algoritmo está fazendo uso extensivo de extensões proprietárias (como caches personalizados). No entanto, muitas vezes "reinvenção da roda" desperdiça tempo que poderia ser melhor gasto desenvolvimento e otimização de outras partes da infra-estrutura de negociação. Tempo de desenvolvimento é extremamente precioso especialmente no contexto de desenvolvedores exclusivos.


A latência é muitas vezes uma questão do sistema de execução, uma vez que as ferramentas de pesquisa estão normalmente situadas na mesma máquina. Para o primeiro, latência pode ocorrer em vários pontos ao longo do caminho de execução. Os bancos de dados devem ser consultados (latência de disco / rede), sinais devem ser gerados (sistema operacional, latência de mensagens kernal), sinais de comércio enviados (latência NIC) e pedidos processados ​​(latência interna de sistemas de troca).


Para operações de freqüência mais alta, é necessário tornar-se intimamente familiarizado com otimização kernal, bem como otimização da transmissão em rede. Esta é uma área profunda e está significativamente além do escopo do artigo, mas se um algoritmo UHFT é desejado, em seguida, estar ciente da profundidade do conhecimento necessário!


Caching é muito útil no toolkit de um desenvolvedor de negociação quantitativa. O cache refere-se ao conceito de armazenar dados acessados ​​com frequência de uma forma que permite um acesso de melhor desempenho, à custa da potencial indisponibilidade dos dados. Um caso de uso comum ocorre no desenvolvimento da web ao tirar dados de um banco de dados relacional com suporte a disco e colocá-lo na memória. Quaisquer solicitações subseqüentes para os dados não precisam "acertar o banco de dados" e, portanto, os ganhos de desempenho podem ser significativos.


Para situações de negociação cache pode ser extremamente benéfico. Por exemplo, o estado atual de um portfólio de estratégia pode ser armazenado em um cache até que ele seja reequilibrado, de modo que a lista não precisa ser regenerada em cada loop do algoritmo de negociação. Tal regeneração é provável que seja uma CPU alta ou operação de E / S de disco.


No entanto, cache não é sem seus próprios problemas. A regeneração de dados de cache de uma só vez, devido à natureza volátil do armazenamento em cache, pode colocar uma demanda significativa na infra-estrutura. Outra questão é dog-piling. Onde várias gerações de uma nova cópia de cache são realizadas sob carga extremamente alta, o que leva a uma falha em cascata.


A alocação dinâmica de memória é uma operação cara na execução do software. Portanto, é imperativo que aplicativos de negociação de maior desempenho estejam bem conscientes de como a memória está sendo alocada e desalocada durante o fluxo do programa. Padrões de linguagem mais recentes, como Java, C # e Python, todos executam a coleta automática de lixo. Que se refere à desalocação de memória alocada dinamicamente quando objetos saem do escopo.


A coleta de lixo é extremamente útil durante o desenvolvimento, pois reduz os erros e facilita a legibilidade. No entanto, muitas vezes é sub-ideal para certas estratégias de negociação de alta freqüência. A coleta de lixo personalizada é freqüentemente desejada para esses casos. Em Java, por exemplo, ajustando o coletor de lixo ea configuração de heap, é possível obter alto desempenho para estratégias de HFT.


C ++ não fornece um coletor de lixo nativo e, portanto, é necessário manipular todos alocação de memória / desalocação como parte da implementação de um objeto. Embora potencialmente propenso a erros (potencialmente levando a ponteiros pendentes) é extremamente útil ter controle de grão fino de como objetos aparecem no heap para determinadas aplicações. Ao escolher um idioma, certifique-se de estudar como o coletor de lixo funciona e se ele pode ser modificado para otimizar para um caso de uso específico.


Muitas operações em sistemas de negociação algorítmicos são passíveis de paralelização. Refere-se ao conceito de realizar operações programáticas múltiplas ao mesmo tempo, isto é, em "paralelo". Os chamados algoritmos "envergonhosamente paralelos" incluem etapas que podem ser calculadas de forma totalmente independente de outras etapas. Certas operações estatísticas, tais como simulações Monte Carlo, são um bom exemplo de algoritmos embarassingly paralelos como cada sorteio aleatório e operação de caminho subsequente pode ser computado sem conhecimento de outros caminhos.


Outros algoritmos são apenas parcialmente paralelizáveis. As simulações de dinâmica de fluidos são um exemplo, onde o domínio de computação pode ser subdividido, mas, em última análise, esses domínios devem se comunicar uns com os outros e, portanto, as operações são parcialmente sequenciais. Algoritmos paralelizáveis ​​estão sujeitos à Lei de Amdahl. Que fornece um limite superior teórico para o aumento de desempenho de um algoritmo paralelizado quando sujeito a $ N $ processos separados (por exemplo, em um núcleo de CPU ou segmento).


A paralelização tornou-se cada vez mais importante como meio de otimização, uma vez que as velocidades de clock do processador estagnaram, pois os processadores mais recentes contêm muitos núcleos com os quais realizar cálculos paralelos. A ascensão do hardware gráfico de consumo (predominantemente para jogos de vídeo) levou ao desenvolvimento de Unidades de Processamento Gráfico (GPUs), que contêm centenas de "núcleos" para operações altamente concorrentes. Essas GPUs são agora muito acessíveis. Os quadros de alto nível, como o CUDA da Nvidia, levaram à adoção generalizada na academia e nas finanças.


Tal hardware GPU é geralmente adequado apenas para o aspecto de investigação de finanças quantitativas, enquanto outros hardware mais especializados (incluindo Field-Programmable Gate Arrays - FPGAs) são usados ​​para (U) HFT. Hoje em dia, a maioria de langauges modernos suportam um grau de simultaneidade / multithreading. Assim, é fácil otimizar um backtester, uma vez que todos os cálculos são geralmente independentes dos outros.


Escala em engenharia de software e operações refere-se à capacidade do sistema para lidar consistentemente aumentando cargas na forma de solicitações maiores, maior uso do processador e mais alocação de memória. Na negociação algorítmica uma estratégia é capaz de escalar se ele pode aceitar grandes quantidades de capital e ainda produzir retornos consistentes. A pilha de tecnologia de negociação escalas se ele pode suportar maiores volumes de comércio e aumento da latência, sem gargalos.


Enquanto os sistemas devem ser projetados para escalar, muitas vezes é difícil prever antecipadamente onde um gargalo irá ocorrer. Registros, testes, perfis e monitoramento rigorosos ajudarão grandemente a permitir que um sistema seja dimensionado. As próprias línguas são frequentemente descritas como "não escaláveis". Este é geralmente o resultado de desinformação, ao invés de fato duro. É a pilha de tecnologia total que deve ser determinada para escalabilidade, não a linguagem. Claramente certas línguas têm um desempenho maior do que outras em casos de uso específicos, mas uma linguagem nunca é "melhor" do que outra em todos os sentidos.


Um meio de gerenciar escala é separar preocupações, como mencionado acima. A fim de introduzir adicionalmente a capacidade de lidar com "picos" no sistema (isto é, a volatilidade súbita que desencadeia uma série de negócios), é útil criar uma "arquitectura de enfileiramento de mensagens". Isso significa simplesmente colocar um sistema de fila de mensagens entre os componentes para que as ordens sejam "empilhadas" se um determinado componente não conseguir processar muitas solicitações.


Ao invés de solicitações sendo perdidas eles são simplesmente mantidos em uma pilha até que a mensagem é tratada. Isso é particularmente útil para enviar comércios para um mecanismo de execução. Se o motor está sofrendo sob latência pesada, então ele vai fazer o backup de comércios. Uma fila entre o gerador de sinal de comércio e a API de execução aliviará esta questão à custa de uma potencial desvalorização do comércio. Um corretor de fila de mensagens de código aberto bem respeitado é o RabbitMQ.


Hardware e Sistemas Operacionais


O hardware que executa a sua estratégia pode ter um impacto significativo na rentabilidade do seu algoritmo. Este não é um problema restrito aos comerciantes de alta freqüência também. Uma má escolha em hardware e sistema operacional pode levar a uma máquina falhar ou reiniciar no momento mais inoportuno. Assim, é necessário considerar onde sua aplicação vai residir. A escolha é geralmente entre uma máquina desktop pessoal, um servidor remoto, um provedor de "nuvem" ou um servidor co-localizado de troca.


As máquinas de mesa são simples de instalar e administrar, especialmente com sistemas operacionais mais recentes, como o Windows 7/8, Mac OSX e Ubuntu. No entanto, os sistemas desktop possuem algumas desvantagens significativas. O principal é que as versões de sistemas operacionais projetados para máquinas desktop provavelmente exigirão reboots / patching (e muitas vezes no pior dos casos!). Eles também usam mais recursos computacionais pela virtude de exigir uma interface gráfica com o usuário (GUI).


A utilização de hardware em um ambiente doméstico (ou local) pode levar a conectividade à internet e problemas de tempo de atividade de energia. O principal benefício de um sistema desktop é que a potência computacional significativa pode ser comprada para a fração do custo de um servidor dedicado remoto (ou sistema baseado em nuvem) de velocidade comparável.


Um servidor dedicado ou uma máquina baseada na nuvem, embora muitas vezes mais cara do que uma opção de desktop, permite uma infra-estrutura de redundância mais significativa, como backups de dados automatizados, a capacidade de garantir mais facilmente o tempo de atividade e o monitoramento remoto. Eles são mais difíceis de administrar, pois requerem a capacidade de usar os recursos de login remoto do sistema operacional.


No Windows, isso é geralmente via o GUI Remote Desktop Protocol (RDP). Em sistemas baseados em Unix, a linha de comando Secure SHell (SSH) é usada. A infraestrutura de servidor baseada em Unix é quase sempre baseada em linha de comando, o que imediatamente torna inutilizáveis ​​ferramentas de programação baseadas em GUI (como MatLab ou Excel).


Um servidor co-localizado, como a frase é usada nos mercados de capitais, é simplesmente um servidor dedicado que reside dentro de uma troca, a fim de reduzir a latência do algoritmo de negociação. Isso é absolutamente necessário para certas estratégias de negociação de alta freqüência, que dependem de baixa latência para gerar alfa.


O aspecto final para a escolha do hardware ea escolha da linguagem de programação é a independência da plataforma. Existe uma necessidade para o código para ser executado em vários sistemas operacionais diferentes? O código foi projetado para ser executado em um determinado tipo de arquitetura de processador, como o Intel x86 / x64 ou será possível executar em processadores RISC, como aqueles fabricados pela ARM? Estas questões serão altamente dependentes da frequência e do tipo de estratégia a ser implementada.


Resiliência e Testes


Uma das melhores maneiras de perder muito dinheiro em negociação algorítmica é criar um sistema sem resiliência. Isso se refere à durabilidade do sistema quando sujeito a eventos raros, como falências de corretagem, súbita volatilidade excessiva, tempo de inatividade em toda a região para um provedor de servidor de nuvem ou a exclusão acidental de um banco de dados de negociação inteiro. Anos de lucros podem ser eliminados em poucos segundos com uma arquitetura mal projetada. É absolutamente essencial considerar problemas como debuggng, testes, log, backups, alta disponibilidade e monitoramento como componentes principais do seu sistema.


É provável que em qualquer aplicação de negociação quantitativa personalizada razoavelmente complicada pelo menos 50% do tempo de desenvolvimento será gasto em depuração, testes e manutenção.


Quase todas as linguagens de programação enviam com um depurador associado ou possuem alternativas de terceiros bem respeitadas. Em essência, um depurador permite a execução de um programa com inserção de pontos de interrupção arbitrários no caminho do código, o que interrompe temporariamente a execução a fim de investigar o estado do sistema. O principal benefício da depuração é que é possível investigar o comportamento do código antes de um ponto de falha conhecido.


Depuração é um componente essencial na caixa de ferramentas para analisar erros de programação. No entanto, eles são mais amplamente utilizados em linguagens compiladas como C ++ ou Java, como linguagens interpretadas como Python são muitas vezes mais fáceis de depurar devido a menos LOC e menos verbose declarações. Apesar desta tendência Python faz navio com o pdb. Que é uma ferramenta de depuração sofisticada. O Microsoft Visual C ++ IDE possui extensa GUI depuração utilitários, enquanto para a linha de comando Linux C + + programador, o depurador gdb existe.


O teste no desenvolvimento de software refere-se ao processo de aplicação de parâmetros e resultados conhecidos a funções, métodos e objetos específicos dentro de uma base de código, para simular o comportamento e avaliar múltiplos caminhos de código, ajudando a garantir que um sistema se comporte como deveria. Um paradigma mais recente é conhecido como Test Driven Development (TDD), onde o código de teste é desenvolvido contra uma interface especificada sem implementação. Antes da conclusão da base de código real, todos os testes falharão. Como o código é escrito para "preencher os espaços em branco", os testes eventualmente todos passam, momento em que o desenvolvimento deve cessar.


A TDD exige um extenso desenho de especificações iniciais, bem como um grau saudável de disciplina para realizar com êxito. Em C ++, Boost fornece uma estrutura de teste de unidade. Em Java, a biblioteca JUnit existe para cumprir a mesma finalidade. O Python também tem o módulo unittest como parte da biblioteca padrão. Muitas outras línguas possuem estruturas de teste de unidade e muitas vezes há várias opções.


Em um ambiente de produção, logging sofisticado é absolutamente essencial. Logging refere-se ao processo de saída de mensagens, com vários graus de gravidade, no que diz respeito ao comportamento de execução de um sistema para um arquivo simples ou banco de dados. Os logs são uma "primeira linha de ataque" ao caçar para o comportamento inesperado do tempo de execução do programa. Infelizmente, as deficiências de um sistema de exploração madeireira tendem apenas a ser descoberto após o fato! Como acontece com os backups discutidos abaixo, um sistema de registro deve ser dada a devida consideração ANTES de um sistema é projetado.


Tanto o Microsoft Windows quanto o Linux vêm com uma extensa capacidade de log de sistema e as linguagens de programação tendem a ser fornecidas com bibliotecas de registro padrão que cobrem a maioria dos casos de uso. Muitas vezes, é aconselhável centralizar as informações de registro para analisá-las em uma data posterior, uma vez que muitas vezes pode levar a idéias sobre como melhorar o desempenho ou redução de erros, que quase certamente terá um impacto positivo em seus retornos de negociação.


Enquanto o registro de um sistema fornecerá informações sobre o que aconteceu no passado, o monitoramento de uma aplicação fornecerá uma visão geral do que está acontecendo agora. Todos os aspectos do sistema devem ser considerados para o monitoramento. Métricas de nível de sistema, como uso de disco, memória disponível, largura de banda de rede e uso de CPU fornecem informações de carga básica.


Métricas de negociação, tais como preços anormais / volume, levantamentos rápidos repentinos e exposição da conta para diferentes setores / mercados também devem ser monitorados continuamente. Além disso, um sistema de limiar deve ser instigado que fornece notificação quando certas métricas são violadas, elevando o método de notificação (e-mail, SMS, chamada telefônica automatizada), dependendo da gravidade da métrica.


O monitoramento do sistema geralmente é o domínio do administrador do sistema ou do gerenciador de operações. No entanto, como um único desenvolvedor comercial, essas métricas devem ser estabelecidas como parte do projeto maior. Existem muitas soluções para monitoramento: proprietárias, hospedadas e de código aberto, que permitem a personalização extensiva de métricas para um caso de uso específico.


Backups e alta disponibilidade devem ser as principais preocupações de um sistema comercial. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected? 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected? The answers to both of these questions are often sobering!


It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment?


Similarly, high availability needs to be "baked in from the start". Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I won't delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system.


Choosing a Language


Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised.


Type Systems


When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C++ and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript.


For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesn't catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. 'Dynamic' languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone.


Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPy/SciPy alleviate this issue due to enforcing a type within arrays.


Open Source or Proprietary?


One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. There are advantages and disadvantages to both approaches. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensing/maintenance costs.


The Microsoft stack (including Visual C++, Visual C#) and MathWorks' MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant "battle testing" in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds.


Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The software allows cohesive integration with multiple languages such as C++, C# and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many plugins/libraries (some free, some commercial) for nearly any quantitative research domain.


There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools "play well" with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned.


MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive.


Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQL/PostgreSQL, Python, R, C++ and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats.


The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process.


Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce.


Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C++ in order to improve execution speeds, but it requires some experience in multi-language programming.


While proprietary software is not immune from dependency/versioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer.


I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C++ and R. The maturity, community size, ability to "dig deep" if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C++) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend.


Batteries Included?


The header of this section refers to the "out of the box" capabilities of the language - what libraries does it contain and how good are they? This is where mature languages have an advantage over newer variants. C++, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms.


C++ is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms "for free". Python is known for being able to communicate with nearly any other type of system/protocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance).


Outside of the standard libraries, C++ makes use of the Boost library, which fills in the "missing parts" of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C++11 spec, including native support for lambda expressions and concurrency.


Python has the high performance NumPy/SciPy/Pandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL++ (MySQL/C++), JDBC (Java/MatLab), MySQLdb (MySQL/Python) and psychopg2 (PostgreSQL/Python). Python can even communicate with R via the RPy plugin!


An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C++ and Java, but some also support C# and Python, either directly or with community-provided wrapper code to the C++ APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol .


Conclusão


As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries.


The benefit of a separated architecture is that it allows languages to be "plugged in" for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it.


Michael Halls-Moore


Mike is the founder of QuantStart and has been involved in the quantitative finance industry for the last five years, primarily as a quant developer and later as a quant trader consulting for hedge funds.

No comments:

Post a Comment