Vous n'êtes pas identifié(e).

#1 10-08-2012 09:43:00

Climax
Administrateur
Inscription: 30-08-2008
Messages: 6 106

L'histoire du trading algorithmique montre les promesses et périls


robots-ia.jpg

Le trading algorithmique n'est pas nouveau...

Quand les machines remplacent les traders expérimentés et les teneurs de marché, des erreurs peuvent se produire à une vitesse vertigineuse.

C'est arrivé avec le fameux "flash crash" du 6 mai 2010, et à nouveau le 1er août de cette année, lorsque le logiciel de Knight Capital Group Inc a mal fonctionné et déclenché des trades non désirés, conduisant à une perte 440 millions de dollars pour le courtier.

Ironie du sort, Knight Capital est à l'origine un teneur de marché (market maker) avec des spécialistes du trading qui supervisent les trades pour que le marché fonctionne d'une manière ordonnée et efficace. Les problèmes de la société ont montré une fois de plus la mesure dans laquelle Wall Street s'appuie désormais sur des programmes algorithmiques pour exécuter les ordres de trading, pour le meilleur ou pour le pire.

Bien que beaucoup de personnes du monde de la finance aient exprimé des inquiétudes qu'une nouvelle ère des finances automatisées déstabilise les marchés, le trading algorithmique n'est pas nouveau - il est presque aussi vieux que les ordinateurs eux-mêmes.

En 1951, Harry Markowitz, un étudiant à l'Université de Chicago a suivi les conseils de Jacob Marschak son superviseur de doctorat en dédiant sa thèse aux concepts mathématiques pour le marché boursier. Le résultat est une théorie moderne qui a expliqué comment les variations de risques peuvent affecter le rendement et l'aversion au risque des investisseurs.

Auparavant, la méthode classique pour évaluer des titres était l'analyse fondamentale développé dans les années 1930 par John Burr Williams. Ce type d'analyse étudie les ratios prix-bénéfice et d'autres indicateurs de la santé d'une entreprise. Les deux techniques ont été conçues pour aider les investisseurs à déterminer le prix correct d'un titre et sont devenues des outils standards pour les analystes.

Portefeuille optimal

Après avoir a proposé sa nouvelle approche de l'analyse, Markowitz a aidé à concevoir des algorithmes qui pouvaient faire les calculs nécessaires afin de déterminer un portefeuille d'investissement optimale. Avec son travail et le développement de l'ordinateur IBM dans les années 1960, les économistes financiers et les praticiens ont finalement été en mesure d'analyser des millions de données des marchés financiers.

Presque immédiatement, des sociétés de placement et des fonds ont cherché à savoir si ces nouvelles techniques informatiques pouvaient déterminer correctement la direction des titres. Le modèle d'évaluation de prix des actifs - une extension de la théorie de Markowitz qui a permis de fixer le prix des titres individuels - est devenu le principal outil d'évaluation des actifs en fonction du risque, tandis que l'analyse fondamentale a continué à guider les analystes cherchent à glaner les quelques informations que d'autres n'avaient pas encore.

Ces techniques d'évaluation ont ensuite été écrites dans un code informatique qui permettait aux opérateurs avertis de savoir quand un titre est sous-évalué ou sur-évalué. Les sociétés d'investissement ont commencé à utiliser ces techniques dans les années 1970 et 80. Avec la révolution de l'ordinateur individuel dans les années 80 et 90, leurs techniques brevetées ont été plus largement adoptées. Les départements de recherches représentaient le seul avantage des sociétés de courtage. Leur avance technologique ayant été largement usurpée.

Dans le même temps, une autre méthodologie théorique s'est développée. La théorie du signal est une technique utilisée pour extraire des informations à partir de données. Les analystes techniques ne sont pas préoccupés par le prix des titres, mais plutôt par les informations données par l'action des prix en bourse. Les informations qui peuvent être tirées à partir des fluctuations de prix diminues rapidement, tandis que les sociétés d''investissement sont axés sur l'analyse fondamentale pour effectuer des transactions rentables sur plusieurs jours ou semaines, les signaux des analystes techniques agissent presque immédiatement.

De l'information éphémère

Des ordinateurs ont été programmés pour agir immédiatement sur les informations, car les sociétés d'investissement ne pouvaient plus se permettre d'attendre qu'un être humain exécute une opération recommandée par un logiciel.

Long-Term Capital Management, le fond spéculatif fondé par John Meriwether en 1994 a utilisé des ordinateurs pour détecter les écarts très faibles et éphémères dans les prix des titres pour faire d'énormes profits sur le marché des dérivés. Leurs algorithmes de trading informatique ont ensuite été imité par d'autres, LTCM à donc chercher de nouvelles méthodologies. L'importante prise de risque à conduit le fond à faire faillite en 1998. Après la débâcle de LTCM, le potentiel risque déstabilisateur du trading algorithmique sur les marchés financiers a vite été oublié.

Le trading algorithmique a évolué en nanotrading. Dans le monde de l'extraction de signal, une seconde, c'est une éternité. Une installation de trading algorithmique située à un ou deux blocs des serveurs de la Bourse de New York peut gagner quelques millisecondes par rapport à un système de trading situé dans un autre état. Un ordinateur moderne peut exécuter des millions de calculs en une milliseconde.

Nous ne pourrons jamais revenir au trading qui se base principalement sur l'analyse fondamentale et sur le trading assistée par ordinateur. Désormais, l'analyse technique et le trading automatique dirigent les marchés et les ordinateurs se battent les uns contre les autres.

compte-demo.png


Le trading de CFD implique un risque de perte significatif, il ne convient donc pas à tous les investisseurs. 74 à 89% des comptes d'investisseurs particuliers perdent de l'argent en négociant des CFD.

Hors ligne

Utilisateurs enregistrés en ligne dans ce sujet: 0, invités: 1
[Bot] ClaudeBot

Pied de page des forums