Sunday 12 March 2017

Quantstrat Forex


Kategorie Archives: Trading Dieser Beitrag wird über den Versuch, das Depmix-Paket für die Online-Status-Vorhersage zu verwenden. Während das Depmix-Paket bewundernswert ist, wenn es darum geht, die Zustände der Vergangenheit zu beschreiben, wenn es für eine Vorhersage in einem Schritt verwendet wird, unter der Annahme, dass der Zustand von morgen8217s identisch zu heute8217s ist, wird das verdeckte Markov-Modellprozess, das innerhalb des Pakets gefunden wird, nicht durchgeführt Erfüllen. Also, um zu starten, war dieser Beitrag von Michael Halls-Moore, der vor kurzem einige R-Code über die Verwendung der depmixS4-Bibliothek, um versteckte markov Modelle verwenden motiviert. Im Allgemeinen, ich bin ungern, um Beiträge zu Themen Ich don8217t fühlen, habe ich eine absolut Front-to-Back-Verständnis von, aber I8217m dies in der Hoffnung, von anderen lernen, wie man angemessene Online-State-Space-Vorhersage, oder 8220regime switching8221 tun Wie es in mehr finanziellen Sprachraum genannt werden kann. Während ich die übliche Theorie versteckter Markov-Modelle (dh, es kann regen oder es kann sonnig sein, aber man kann nur das Wetter beurteilen, die von den Kleidern sehen Sie Menschen tragen außerhalb Ihres Fensters, wenn Sie aufwachen gesehen) gesehen haben und gearbeitet haben Mit Spielzeugbeispielen in MOOCs (Udacity8217s self-driving car course befasst sich mit ihnen, wenn ich mich richtig erinnere8211 oder vielleicht war es der AI-Kurs), am Ende des Tages ist Theorie nur so gut wie, wie gut eine Implementierung auf reale Daten arbeiten kann . Für dieses Experiment habe ich beschlossen, SPY-Daten seit der Gründung zu nehmen, und eine vollständige in-Probe 8220backtest8221 auf die Daten. Das heißt, angesichts der Tatsache, dass der HMM-Algorithmus von depmix die gesamte Historie der Rückkehr sieht, führt der Algorithmus mit dieser 8220god8217s eye8221-Ansicht der Daten korrekt die Regime ein, wenn die Backtest-Ergebnisse irgendeine Angabe sind Dr. Halls-Moore8217s. Im Wesentlichen, während ich wählte drei Staaten, stellte ich fest, dass alles mit einem Intercept über Null ist ein Stier-Zustand, und unter Null ist ein Bärenstaat, so im Wesentlichen, es reduziert auf zwei Staaten. Mit dem Ergebnis: Also, nicht besonders schrecklich. Der Algorithmus funktioniert, Art, Art, rechts Nun, let8217s versuchen Online-Vorhersage jetzt. Also, was ich hier getan habe, war ich ein erweitertes Fenster, beginnend von 500 Tagen seit SPY8217s Anfang, und hielt es zu erhöhen, von einem Tag auf einmal. Meine Vorhersage war, trivial genug, der jüngste Tag, mit einem 1 für einen Bullenstaat und ein -1 für einen Bärenstaat. Ich lief diesen Prozess parallel (auf einem Linux-Cluster, weil windows8217s doParallel Bibliothek scheint nicht einmal wissen, dass bestimmte Pakete geladen werden, und es8217s mehr chaotisch), und das erste große Problem ist, dass dieser Vorgang etwa drei Stunden auf sieben Kerne for Etwa 23 Jahre der Daten. Nicht gerade ermutigend, aber Rechenzeit isn8217t teuer in diesen Tagen. So let8217s sehen, wenn dieser Prozess tatsächlich funktioniert. Erstens, let8217s testen, ob der Algorithmus tut, was es tatsächlich tun soll und einen Tag der Vorgriffs-Bias (das heißt, der Algorithmus sagt uns den Zustand am Ende des Tages8211wie korrekt ist es sogar für diesen Tag). Mit dem Ergebnis: So, angeblich, scheint der Algorithmus zu tun, was es entworfen wurde, zu tun, die einen Zustand für einen bestimmten Datensatz zu klassifizieren ist. Nun, die wichtigste Frage: Wie gut tun diese Vorhersagen auch nur einen Tag im Voraus Du8217d denke, dass Staatsraum Vorhersagen würde von Tag zu Tag sparsam sein, angesichts der langen Geschichte, korrekt Mit dem Ergebnis: Das heißt, ohne die Vorausschau Bias, die Zustandsraumvorhersagealgorithmus ist schädlich. Warum ist das gut, hier8217s die Handlung der Staaten: Kurz gesagt, scheint der Online-hmm-Algorithmus im Depmix-Paket seine Meinung sehr leicht zu ändern, mit offensichtlichen (negativen) Implikationen für tatsächliche Handelsstrategien. Also, dass wraps es für diesen Beitrag. Im Wesentlichen ist hier die Hauptbotschaft: Es gibt einen großen Unterschied zwischen dem Laden, der die deskriptive Analyse durchführt (AKA 8220, wo Sie gewesen sind, warum es passiert ist), vs. prädiktive Analyse (das heißt, wenn ich die Zukunft richtig voraussagen werde, bekomme ich einen positiven Lohn8221 ). Meiner Meinung nach, während beschreibende Statistiken haben ihren Zweck in Bezug auf die Erklärung, warum eine Strategie möglicherweise durchgeführt haben, wie es getan hat, letztlich, wir immer auf der Suche nach besseren Vorhersage-Tools. In diesem Fall scheint das Depmix, zumindest in dieser 8220-out-of-the-box8221-Demonstration, nicht das Werkzeug dafür zu sein. Wenn jemand Erfolg mit der Verwendung von depmix (oder anderen Regime-Switching-Algorithmus in R) für die Vorhersage hatte, würde ich gerne sehen, Arbeit, die Details der Prozedur genommen, wie es8217s ein Bereich I8217m suchen, um meine Toolbox zu erweitern, aber don8217t haben einige besondere Gute Leads. Im Wesentlichen, wie ich an diesen Beitrag denken, wie ich meine eigenen Erfahrungen mit dem Paket zu beschreiben. Danke fürs Lesen. HINWEIS: Am 5. Oktober werde ich in New York City sein. Am 6. Oktober werde ich auf der Trading Show im Programming Wars-Panel präsentieren. HINWEIS: Mein aktueller Analytics-Vertrag steht zum Ende des Jahres zur Prüfung zur Verfügung, daher bin ich offiziell auf der Suche nach weiteren Angeboten. Wenn Sie eine Vollzeitrolle haben, die von den Fähigkeiten profitieren kann, die Sie auf meinem Blog sehen, treten Sie bitte mit mir in Verbindung. Mein linkedin Profil finden Sie hier. In diesem Beitrag wird gezeigt, wie der Umsatz bei der Nutzung von Renditebasierten Daten mit Hilfe von PerformanceAnalytics und der Return. Portfolio-Funktion in R zu berücksichtigen ist. Dies wird anhand einer Grundstrategie für die neun Sektoren-SPDRs demonstriert. Dies ist zunächst einmal die Antwort auf eine Frage, die Robert Wages in der Mailingliste R-SIG-Finance gestellt hat. Zwar gibt es viele Menschen gibt es mit einer Fülle von Fragen (viele von denen kann gefunden werden, auf diesem Blog bereits demonstriert werden), gelegentlich gibt es eine Industrie Veteran, ein PhD-Student von Stanford oder andere sehr intelligente Person, die Wird eine Frage zu einem Thema, das ich haven8217t noch berührt auf diesem Blog, die einen Beitrag zu einem anderen technischen Aspekt in R demonstrieren wird zu stellen. Dies ist einer dieser Zeiten. Also, diese Demonstration wird über die Berechnung der Umsatz in Renditen Platz mit dem PerformanceAnalytics-Paket. Ausserhalb des PortfolioAnalytics-Pakets ist PerformanceAnalytics mit seiner Return. Portfolio-Funktion das Go-to-R-Paket für Portfolio-Management-Simulationen, da es einen Satz von Gewichten, einen Satz von Renditen und eine Reihe von Portfolio-Renditen für die Analyse generieren kann Mit dem Rest der PerformanceAnalytics8217s Funktionen. Auch hier ist die Strategie: Nimm die 9 Dreibund-Sektor-SPDRs (da es jetzt vier Buchstaben-ETFs gibt), und am Ende eines jeden Monats, wenn der bereinigte Kurs über seinem 200-Tage-gleitenden Durchschnitt liegt, investieren . Normalisieren Sie über alle investierten Sektoren (dh 19., wenn in alle 9, 100 in 1 investiert, wenn nur 1 investiert, 100 Bargeld, mit einem Null-Return-Vektor bezeichnet, wenn keine Sektoren investiert werden). It8217s eine einfache, Spielzeug-Strategie, wie die Strategie isn8217t der Punkt der Demonstration. Hier ist der grundlegende Setup-Code: So erhalten die SPDRs, setzen sie zusammen, berechnen ihre Rückkehr, erzeugen das Signal und erstellen den Null-Vektor, da Return. Portfolio Gewichte unter 1 als Entnahme behandelt und Gewichte über 1 als Zusatz Von größerem Kapital (großes FYI hier). Nun, hier8217s, wie man den Umsatz berechnet: Also, der Trick ist: Wenn Sie Return. portfolio aufrufen, verwenden Sie die ausführliche TRUE-Option. Dies schafft mehrere Objekte, darunter Retouren, BOP. Weight und EOP. Weight. Diese stehen für Beginn der Periode Gewicht und Ende des Periodengewichts. Die Art und Weise, dass Umsatz berechnet wird, ist einfach der Unterschied zwischen der Rückkehr der tag8217s das zugeteilte Portfolio von seinem früheren Endpunkt zu dem, wo das Portfolio tatsächlich zu Beginn der nächsten Periode steht. Das heißt, das Ende des Periodengewichts ist der Beginn der Periodendrift, nachdem der Tagesablauf für diesen Vermögenswert berücksichtigt wurde. Der neue Anfang des Zeitraums Gewicht ist das Ende der Periode Gewicht plus jede Transaktion, die getan worden wäre. Um also die tatsächlichen Transaktionen (oder den Umsatz) zu finden, subtrahiert man das vorherige Ende des Periodengewichts von dem Beginn des Periodengewichts. Dies ist, was solche Transaktionen für diese Strategie aussehen. Etwas, das wir mit solchen Daten tun können, ist ein einjähriger Rolling-Umsatz, der mit dem folgenden Code durchgeführt wird: Es sieht so aus: Dies bedeutet im Wesentlichen, dass ein Jahr2007s im Wert von Zwei-Wege-Umsatz (das heißt, wenn der Verkauf eines vollständig investierten Portfolios ist 100 Umsatz, und den Kauf einer völlig neuen Satz von Vermögenswerten ist ein weiterer 100, dann zwei-Wege-Umsatz 200) ist rund 800 bei maximal. Das kann für einige Leute ziemlich hoch sein. Nun, hier8217s die Anwendung, wenn Sie die Transaktionskosten bei 20 Basispunkten pro Prozentpunkt gehandelt (das heißt, es kostet 20 Cent zu 100 Transaktionen) zu bestrafen. Also, bei 20 Basispunkten auf Transaktionskosten, die rund ein Prozent in Renditen pro Jahr aus dieser (zugegebenermaßen schrecklichen) Strategie. Das ist bei weitem nicht zu vernachlässigen. So, das ist, wie Sie tatsächlich berechnen Umsatz und Transaktionskosten. In diesem Fall war das Transaktionskostenmodell sehr einfach. Angesichts der Tatsache, dass Return. portfolio Transaktionen auf der einzelnen Asset-Ebene zurückgibt, könnte man bei der Modellierung der Transaktionskosten so komplex werden, wie sie es wünschen. Danke fürs Lesen. ANMERKUNG: Ich werde einen Blitzschlag bei RFinance geben, also für die Besucher, die Sie dort finden können. Dieser Beitrag skizziert einen leicht zu machenden Fehler beim Schreiben von vektorisierten Backtests8211nicht bei der Verwendung eines Signals, das am Ende einer Periode erhalten wird, um eine Position in derselben Periode einzugeben (oder zu verlassen). Der Unterschied in den Ergebnissen, die man erhält, ist massiv. Heute sah ich zwei getrennte Beiträge von Alpha Architect und Mike Harris, die sich beide auf ein Papier von Valeriy Zakamulin bezogen, dass einige vorhergehende Trendfolgen-Forschung von Glabadanidis mit schäbigen Ergebnissen durchgeführt wurde und dass Glabadanidis8217s Ergebnisse nur reproduzierbar waren, indem sie lookahead Bias einführten. Der folgende Code zeigt, wie diese Vorgriff-Bias zu reproduzieren. Zuerst wird die Einrichtung einer grundlegenden gleitenden durchschnittlichen Strategie auf dem SampP 500 Index von so weit zurück wie Yahoo-Daten liefern. Und hier ist, wie die lookahead Bias zu initiieren. Dies sind die 8220results8221: Natürlich ist diese Equity-Kurve nutzlos, also hier8217s ein in log-Skala. Wie zu sehen ist, macht die Vorausschau eine gewaltige Differenz. Hier sind die Zahlenergebnisse: Wieder, absolut lächerlich. Beachten Sie, dass bei der Verwendung von Return. Portfolio (die Funktion in PerformanceAnalytics) das Paket automatisch die nächste Periode8217s anstelle der aktuellen für Ihre Gewichte zurückgibt. Jedoch für diejenigen, die 8220simple8221 Backtests, die schnell mit vektorisierten Operationen durchgeführt werden können, kann ein Off-by-one-Fehler machen den Unterschied zwischen einem Backtest im Bereich der vernünftigen und reinen Unsinn. Wenn man jedoch den Unsinn untersuchen will, wenn es unmöglich ist, die Ergebnisse zu wiederholen, dann sind die Mechaniken, die oben gezeigt wurden, der Weg, es zu tun. Nun, auf andere Nachrichten: I8217d danken Gerald M für den Aufenthalt auf der Spitze eines der Logical Invest Strategien8211Namely, ihre einfache globale Marktrotation Strategie umrissen in einem Artikel aus einem früheren Blog-Post. Bis März 2015 (das Datum des Blogposts) hatte sich die Strategie gut entwickelt. Doch nach dem genannten Datum Es war eine vollständige Katastrophe, die im Nachhinein offensichtlich war, als ich es durch die Hypothese getrieben Entwicklungsprozess Rahmenprozess schrieb ich über früher. Obwohl es sehr viel darum ging, nicht nur eine Strategie wegen kurzfristiger Underperformance wegzuwerfen, und dass Anomalien wie Impuls und Wert aufgrund des Karriererisikos aufgrund der kurzfristigen Underperformance bestehen, ist es niemals eine gute Sache Wenn eine Strategie historisch große Verluste schafft, vor allem, nachdem sie in einer so bescheidenen Ecke der quantitativen Finanzwelt veröffentlicht wurde. Auf jeden Fall war dies ein Beitrag, der einige Mechaniken demonstriert, und ein Update zu einer Strategie, die ich vor nicht allzu langer Zeit gepostet habe. Danke fürs Lesen. ANMERKUNG: Ich bin immer interessiert, über neue Gelegenheiten zu erfahren, die von meiner Sachkenntnis profitieren können, und bin immer glücklich, zu vernetzen. Mein LinkedIn Profil finden Sie hier. Frohes neues Jahr. Dieser Beitrag wird eine schnelle, die die Beziehung zwischen dem einfachen gleitenden Durchschnitt und Zeitreihe Momentum. Die Implikation ist, dass man potentiell bessere Zeitreihen-Impulsindikatoren ableiten kann als die klassische, die in so vielen Papieren angewandt wird. Okay, so dass die Hauptidee für diesen Beitrag ist ganz einfach: I8217m sicher, dass wir alle vertraut mit der klassischen Dynamik. Das heißt, der Preis jetzt im Vergleich zum Preis aber vor langer Zeit (3 Monate, 10 Monate, 12 Monate, etc.). Z. B. P (jetzt) ​​8211 P (10) Und I8217m sicher jeder ist mit dem einfachen gleitenden Durchschnittindikator auch vertraut. Z. B. SMA (10). Nun, wie sich herausstellt, sind diese beiden Mengen tatsächlich verwandt. Es stellt sich heraus, wenn anstelle der Expression Impuls als die Differenz von zwei Zahlen, es wird als die Summe der Renditen ausgedrückt, kann es geschrieben werden (für ein 10-Monats-Momentum) als: MOM10 Rückkehr dieser Monat Rückkehr der letzten Monat Rückkehr von 2 Monate vor 8230 Rückkehr von 9 Monaten, für insgesamt 10 Monate in unserem kleinen Beispiel. Dies kann als MOM10 geschrieben werden (P (0) 8211 P (1)) (P (1) 8211 P (2)) 8230 (P (9) 8211 P (10)). (Jeder Unterschied in Klammern bezeichnet einen Wert von monatelangen Werten.) Dieser kann dann durch assoziative Arithmetik wie folgt umgeschrieben werden: (P (0) P (1) 8230 P (9)) 8211 (P (1) P (2) 8230 P (10) aufweist. Mit anderen Worten, Impuls 8212 aka die Differenz zwischen zwei Preisen, kann als die Differenz zwischen zwei kumulierten Summen der Preise umgeschrieben werden. Und was ist ein einfacher gleitender Durchschnitt Einfach eine kumulative Summe von Preisen geteilt durch so viele Preise summiert. Hier8217s einige R-Code zu demonstrieren. Mit der resultierenden Anzahl von Zeiten sind diese beiden Signale gleich: Kurz, jedes Mal. Nun, was genau ist die Punchline dieses kleinen Beispiels hier8217s die Punchline: Der einfache gleitende Durchschnitt ist8230fairly vereinfacht, soweit Filter gehen. Es funktioniert als ein pädagogisches Beispiel, aber es hat einige bekannte Schwächen hinsichtlich Verzögerung, Fenstereffekte, und so weiter. Hier ist ein Spielzeugbeispiel, wie man durch Ändern des Filters ein anderes Impuls-Signal erhalten kann. Mit den folgenden Ergebnissen: Während der Unterschied der EMA10-Strategie nicht besser als die Differenz von SMA10 (aka Standard 10-Monats-Momentum), das8217s nicht der Punkt ist. Der Punkt ist, dass das Impulssignal aus einem einfachen gleitenden Mittelwertfilter abgeleitet wird und dass durch Verwendung eines anderen Filters noch eine Impulsart der Strategie verwendet werden kann. Oder anders ausgedrückt, ist das Maingeneral Takeaway hier, dass Impuls die Steigung eines Filters ist, und man kann Impuls in einer unbegrenzten Anzahl von Möglichkeiten abhängig von dem verwendeten Filter zu berechnen, und kann kommen mit einer Unzahl von verschiedenen Impuls Strategien. Danke fürs Lesen. HINWEIS: Ich bin derzeit Vertragspartner in Chicago, und bin immer offen für die Vernetzung. Treten Sie mit mir an meiner eMail an ilya. kipnisgmail in Verbindung oder finden Sie mich auf meinem LinkedIn hier. Dieser Beitrag wird skizzieren einen ersten versäumten Versuch der Anwendung der Ensemble-Filter-Methodik zu versuchen und kommen mit einem Gewichtungsprozess auf SPY, die theoretisch sollte ein allmählicher Prozess von Überzeugung zwischen einem Bullenmarkt, ein Bärenmarkt und überall dazwischen verschieben. Dies ist ein Follow-up-Beitrag zu diesem Blog-Post. So ging mein Denken wie folgt: In einem Bullenmarkt, wenn man von Ansprechempfindlichkeit zu Glätte übergeht, sollten ansprechende Filter höher sein als glatte Filter und umgekehrt, da es im allgemeinen einen Kompromiß zwischen den beiden gibt. In der Tat formuliert die Quantität der Quadratwurzel der EMA von quadrierten Renditen jede Abweichung von einer flachen Linie insgesamt (obwohl sie von der Dimension der Volatilität, die die Quadratwurzel der 18-tägigen EMA von quadriert ist, inspiriert wurde Renditen), während die Reaktionsfähigkeitsgröße jede Abweichung von der Zeitreihe der realisierten Preise bestraft. Ob dies die beiden besten Maßnahmen der Glätte und Reaktionsfähigkeit ist ein Thema I8217d sicherlich Feedback zu schätzen. In jedem Fall war eine Idee, die ich auf meinem Kopf hatte, dass zusätzlich zu einer Möglichkeit, wie mehrere Filter durch ihre Reaktionsfähigkeit (Abweichung von Preis-Aktion) und Glätte (Abweichung von einer flachen Linie), dass durch die Summen Des Vorzeichens der Differenz zwischen einem Filter und seinem Nachbarn auf das Ansprechen auf das Glättenspektrum, sofern genügend Ensemble-Filter (zB 101, so gibt es 100 Unterschiede), würde man einen Weg, um von der vollen Überzeugung eines Bullenmarktes zu bewegen, Zu einem Bärenmarkt, zu irgendetwas dazwischen, und haben dies ein reibungsloser Prozess, der keine schizophrenen Schwünge der Überzeugung hat. Hierbei handelt es sich um den Code, der dies auf SPY von Anfang an bis 2003 anfangen soll: Und hier ist das sehr überwältigende Ergebnis: Im Grunde genommen, während ich erwartet hätte, Veränderungen in der Überzeugung von vielleicht höchstens 20 zu sehen, stattdessen hat mein Indikator für die Summe der Unterschiede des Zeichens genau so gehandelt wie ich Hoffte, es wäre nicht ein sehr binärer Mechaniker. Meine Intuition war, dass zwischen einem 8220-anfänglichen Bullenmarkt8221 und einem 8220bären Bärenmarkt8221, dass einige Unterschiede positiv, einige negativ wären, und dass sie sich gegenseitig vernetzen, und die Überzeugung wäre Null. Darüber hinaus, dass, während jeder einzelne Crossover binär ist, alle hundert Zeichen, die entweder positiv oder negativ wäre ein allmählicher Prozess. Anscheinend war dies nicht der Fall. Um diesen Gedankengang später fortzusetzen, wäre eine Sache zu versuchen, ein Ganz-Paar-Zeichenunterschied zu sein. Sicherlich habe ich das Gefühl, an dieser Stelle auf diese Idee verzichten zu wollen, und wie immer wäre Feedback immer willkommen. Danke fürs Lesen. HINWEIS: Ich bin derzeit in einer Analytik-Kapazität in der Innenstadt von Chicago beraten. Ich bin aber auch auf der Suche nach Mitarbeitern, die interessante Trading-Ideen verfolgen wollen. Wenn Sie glauben, dass meine Fähigkeiten Ihnen helfen können, sprechen wir. Sie können mich per E-Mail an ilya. kipnisgmail, oder finden Sie mich auf meinem LinkedIn hier. Diese Überprüfung wird über Inovance Tech8217s TRAIDE System sein. Es ist eine Anwendung, die darauf ausgerichtet ist, Kleinanleger auf eigene maschinelle Lernalgorithmen anzuwenden, um sie bei der Schaffung systematischer Handelsstrategien zu unterstützen. Derzeit ist meine einzeilige Überprüfung, dass, während ich hoffe, dass die Gründer gut zu verstehen, ist die Anwendung noch in einem frühen Stadium, und so sollte von potenziellen Nutzer getaktet werden Kapitalisten als etwas mit Beweis für das Potenzial, anstatt ein fertiges Produkt ausgecheckt werden Bereit für den Massenmarkt. Während dies als eine Überprüfung, es8217s auch meine Gedanken, wie Inovance Tech sein Produkt verbessern kann. Ein bisschen Hintergrund: Ich habe mehrere Male zu einigen der company8217s Gründer gesprochen, die wie Leute auf ungefähr meinem Altersniveau (so, Mittausendjahre) klingen. Letztendlich ist das Verkaufsargument: Systematischer Handel ist cool. Maschinelles Lernen ist cool. Daher ist das Anwenden von maschinellem Lernen auf systematisches Trading ein ehrfürchtiges (und ein sicherer Weg, um Gewinne zu erzielen, wie Renaissance Technologies gezeigt hat.) Während dies ein bisschen snarky klingen mag, ist es auch in gewisser Weise wahr. Maschinelles Lernen ist zum Reden der Stadt geworden, von IBM8217s Watson (RenTec selbst hat eine Reihe von Spracherkennungsexperten von IBM ein paar Jahrzehnte zurückgezogen), zu Stanford8217s Selbstfahrer (erfunden von Sebastian Thrun, der jetzt Udacity leitet) Auf den Netflix-Preis, zu Gott weiß, was Andrew Ng mit tiefem Lernen bei Baidu macht. Wenn man bedenkt, wie gut das maschinelle Lernen bei weitaus komplexeren Aufgabenstellungen gelingt als 8220, einen halb-anständigen systematischen Handelsalgorithmus8221 zu schaffen, sollte es nicht zu viel sein, um dieses mächtige Feld an der Schnittstelle von Informatik und Statistik zu bitten, dem Kleinanleger zu helfen, Viel mehr Rendite für seine Investitionen als durch diskretionäre Chart-Beobachtung und Lärmhandel. Nach meinem Verständnis aus Gesprächen mit Inovance Tech8217s Gründern, ist dies explizit ihre Mission. Jedoch bin ich nicht sicher, daß Inovance8217s TRAIDE Anwendung wirklich diese Mission in seinem gegenwärtigen Zustand vollbringt. Hier ist die Funktionsweise: Die Benutzer wählen jeweils ein Asset aus und wählen einen Datumsbereich aus (Daten gehen auf den 31.12.2009 zurück). Die Vermögenswerte sind derzeit auf sehr liquide Währungspaare beschränkt und können folgende Einstellungen vornehmen: 1 Stunde, 2 Stunden, 4 Stunden, 6 Stunden oder tägliche Balkenzeitrahmen. Die Benutzer wählen dann aus einer Vielzahl von Indikatoren, von technischen (gleitende Durchschnitte, Oszillatoren, Volumenberechnungen usw.). Meistens ein Sortiment von Indikatoren des 20. Jahrhunderts, obwohl der gelegentliche adaptive gleitende Durchschnitt es geschafft hat, in meinem DSTrading-Paket zu schleichen, und MAMA8211aka die Mesa Adaptive Moving Average, von John Ehlers) zu mehr esoterischen wie einige Stimmungsindikatoren. Hier, wo die Dinge für mich nach Süden gehen, aber. Das heißt, dass es zwar einfach ist, so viele Indikatoren wie ein Benutzer hinzuzufügen, aber es gibt grundsätzlich keine Dokumentation zu keiner von ihnen, ohne Links zu Verweis, etc., so dass die Nutzer die Notwendigkeit zu tragen, tatsächlich zu verstehen, was jeder zu tragen Einer der Indikatoren, die sie tatsächlich auswählen, und ob diese Indikatoren nützlich sind oder nicht. Die TRAIDE-Applikation macht den Anwender so weit wie möglich, die Anwender mit dem Ziel dieser Indikatoren zu vertraut zu machen, was ihr theoretisches Ziel ist (Messen Sie die Überzeugung in einem Trend, erkennen Sie einen Trend, einen Oszillator-Indikator usw.) , Geben die Benutzer für jede Kennzahl pro Strategie eine Parametrierung vor. Z. B. Wenn ich ein EMA-Crossover hatte, müssen I8217d eine neue Strategie für ein Crossover von 20100, ein 2100-Crossover schaffen, anstatt etwas so zu spezifizieren: short EMA: 20-60 long EMA: 80-200 Quantstrat selbst hat diese Funktionalität und während I don8217t rufen Abdeckung Parameter Robustheit Checksoptimization (mit anderen Worten, testen mehrere Parameter-Sets8211whether man sie für die Optimierung oder Robustheit ist bis zu dem Benutzer, nicht die Funktionalität) in quantstrat auf diesem Blog speziell, diese Informationen sehr viel, was ich 8220the Offizielle quantstrat manual8221, hier gefunden. Meiner Meinung nach ist die Option, eine Reihe von Werten abzudecken, zwingend erforderlich, um zu zeigen, dass jede gegebene Parametereinstellung kein zufälliger Zufall ist. Außerhalb von quantstrat, habe ich diese Methode in meinem Hypothesis Driven Development Posts, und in kommenden für die Auswahl der Parameter für Volatilität Handel demonstriert. Wo TRAIDE etwas Interessantes tun kann, ist jedoch, dass nach dem Angeben seiner Indikatoren und Parameter seine 8220 proprietären Maschinellen Lernalgorithmen (WARNUNG: COMPLETELY BLACK BOX) bestimmen, für welchen Wertebereich der betreffenden Indikatoren die besten Ergebnisse im Backtest erzielt wurden , Und weisen ihnen Bullishness und Bearishness Scores. Mit anderen Worten, es waren die Indikatorwerte, die am besten über den Verlauf der Stichprobe8221 gelangten. Ich denke, dass TRAIDE in diesem Bereich mehr tun muss, wie etwa die Berichterstattung von P-Werten, die Überzeugung und so weiter. Zum Beispiel, wenn Sie genügend Indikatoren kombinieren, ist Ihre 8220rule8221 eine Marktordnung, die einfach der Schnittpunkt aller Bereiche der Indikatoren. Beispielsweise kann TRAIDE einem Benutzer mitteilen, dass das stärkste zinsbullische Signal, wenn die Differenz der gleitenden Mittelwerte zwischen 1 und 2 liegt, der ADX zwischen 20 und 25 liegt, der ATR zwischen 0,5 und 1 liegt, und so weiter. Jede Einstellung, die der Benutzer auswählt, schränkt die Anzahl der Trades, die die Simulation macht, weiter ein. Meiner Meinung nach gibt es mehr Möglichkeiten, das Zusammenspiel von Indikatoren zu erforschen, als nur eine riesige AND-Anweisung, wie eine 8220OR8221-Anweisung, von einer Art. (Z. B. alle Werte auswählen, auf einen Handel setzen, wenn 3 von 5 Indikatoren in den ausgewählten bullischen Bereich fallen, um mehr Trades zu platzieren). Obwohl es sinnvoll ist, Handelsabschlüsse auf sehr seltene Fälle zu filtern, wenn man mit einer großen Anzahl von Instrumenten handelt, so dass von mehreren tausend möglichen Instrumenten nur mehrere zu einem beliebigen Zeitpunkt handeln, wählt der Benutzer mit TRAIDE nur eine Assetklasse aus , Ein Währungspaar) zu einem Zeitpunkt, so I8217m in der Hoffnung, TRAIDE sehen mehr Funktionalität in Bezug auf was eine Handelsregel darstellt. Nachdem der Benutzer sowohl eine lange als auch eine kurze Regel ausgewählt hat (durch einfaches Filtern auf Indikatorbereiche, die TRAIDE8217s maschinelle Lernalgorithmen besagen, sind gut), macht TRAIDE dies zu einem Backtest mit einer langen Eigenkapitalkurve, einer kurzen Eigenkapitalkurve, einer gesamten Eigenkapitalkurve und Handelsstatistiken für aggregierte, lange und kurze Trades. Zum Beispiel erhält man in quantstrat nur aggregierte Handelsstatistiken. Ob lang oder kurz, alles, was zielt auf quantstrat ist, ob der Handel gemacht oder verloren Geld. Für anspruchsvolle Benutzer, it8217s trivial genug, um einen Satz von Regeln an oder aus, aber TRAIDE mehr, um die Benutzer8217s Hand in dieser Hinsicht zu halten. Schließlich erzeugt TRAIDE MetaTrader4-Code für einen Benutzer zum Herunterladen. Und das ist der Prozess. Meiner Meinung nach, während das, was Inovance Tech hat mit TRAIDE zu tun hat, ist interessant, ich wouldn8217t empfehlen es in seinem derzeitigen Zustand. Für anspruchsvolle Personen, die wissen, wie man einen geeigneten Forschungsprozess durchführt, ist TRAIDE in Bezug auf die Parametereinstellungen (eine zu einer Zeit) zu streng, die vorcodierten Indikatoren (die Zielgruppe dürfte wahrscheinlich zu gut programmieren) und die Assetklassen (wieder) , eins nach dem anderen). Für Privatanleger ist mein Problem mit TRAIDE jedoch: Es gibt eine ganze Palette von undokumentierten Indikatoren, die dann zu Black-Box-Maschinellen Lernalgorithmen wechseln. Das Ergebnis ist, dass der Benutzer sehr wenig versteht, was die zugrunde liegenden Algorithmen tatsächlich tun, und warum die Logik, die er oder sie präsentiert wird, ist die Ausgabe. Während TRAIDE es trivial einfach macht, jedes gegebene handelnde System zu erzeugen, da mehrere Einzelpersonen auf etwas unterschiedliche Weisen vorher angegeben haben, schreiben eine Strategie ist das einfache Teil. Die Arbeit, um zu verstehen, wenn diese Strategie tatsächlich eine Kante ist viel schwieriger. Das heißt, seine Robustheit, seine prädiktive Kraft, seine Empfindlichkeit gegenüber verschiedenen Regimen und so weiter zu überprüfen. Angesichts TRAIDE8217s eher kurzer Datenhistorie (ab 2010) und gepaart mit der Durchsichtigkeit, mit der der Benutzer operiert, wäre meine Analogie so: Es ist wie ein unerfahrener Fahrer die Schlüssel zu einem Sportwagen in einem dicken Nebel auf einer kurvenreichen Straße. Niemand bestreitet, dass ein Sportwagen ist genial. Allerdings liegt die wahre Belastung der Arbeit darin, sicherzustellen, dass der Benutzer nicht in einen Baum zertrümmert. Insgesamt mag ich die TRAIDE application8217s-Mission, und ich denke, es kann Potenzial als etwas für die Retail-Investoren, die don8217t beabsichtigen, die Ein-und Ausgänge der Kodierung eines Handelssystems in R (trotz mir demonstrieren viele Male über, wie zu setzen Solche Systeme zusammen). Ich denke nur, dass es mehr Arbeit in die sicherstellen muss, dass die Ergebnisse eines Benutzers sehen, sind ein Indikator für eine Kante, anstatt öffnen die Möglichkeit der hoch-flexible Maschinelles Lernen Algorithmen jagen Geister in einem der lautesten und dynamischsten Datensätze Kann man finden. Meine Empfehlungen sind folgende: 1) Mehrfache Assetklassen 2) Erlauben Sie Parameterbereiche und beschränken Sie die Anzahl der Versuche an einem beliebigen Punkt (z. B. 4 Indikatoren mit zehn Einstellungen pro 10.000 möglichen Handelssystemen sprengen die Server). Um die Anzahl der Testläufe zu verkleinern, verwenden Sie Techniken aus dem experimentellen Design, um zu anständigen Kombinationen zu gelangen. (Ich wünschte, ich erinnerte mich an meine Antwort Oberfläche Methodik Techniken von meinem Master8217s Grad über jetzt) ​​3) Erlauben Sie Modifikationen der Größenordnung (E. G. Volatility Targeting, Stop Verluste), wie ich schrieb über in meinem Hypothese-driven Entwicklungsposten. 4) Geben Sie eine Art Dokumentation für die Indikatoren, auch wenn it8217s so einfach wie ein Link zu investopedia (vorzugsweise viel mehr). 5) Weit mehr Leistung ist notwendig, vor allem für Anwender, die don8217t Programm. Das heißt, um zu unterscheiden, ob es einen legitimen Rand gibt oder ob es zu wenige Beobachtungen gibt, um die Nullhypothese von zufälligem Rauschen zurückzuweisen. 6) Weit längere Datenverläufe. 2010 scheint nur zu kurz für einen Zeitrahmen, um sicherzustellen, eine Strategie8217s Wirksamkeit, zumindest auf täglichen Daten (kann nicht wahr sein, pro Stunde). 7) Faktor in Transaktionskosten. Der Handel auf einer stündlichen Zeitrahmen bedeutet weit weniger Pampl pro Handel als auf einer täglichen Auflösung. Wenn MT4 einen festen Ticketpreis berechnet, müssen Nutzer wissen, wie diese Faktoren in ihre Strategie passen. 8) Schließlich Dogfooding. Als ich letztes Mal mit Inovance Tech8217s Gründer sprach, behaupteten sie, dass sie ihre eigenen Algorithmen verwenden würden, um eine Forex-Strategie zu schaffen, die gut im Live-Handel funktionierte. Bis zum Zeitpunkt der mehr von diesen Vorschlägen umgesetzt werden, ist es interessant zu sehen, wenn sie eine Erfolgsbilanz als Fonds haben, zusätzlich zu als Software-Anbieter. Wenn all diese Dinge berücksichtigt und automatisiert werden, wird das Produkt hoffentlich seine Aufgabe erfüllen, systematischen Handel und maschinelles Lernen zu mehr Menschen zu bringen. Ich glaube, TRAIDE hat Potenzial, und ich hoffe, dass seine Mitarbeiter erkennen, dass Potenzial. Danke fürs Lesen. ANMERKUNG: Ich bin zZ Vertrag innen in der Innenstadt von Chicago und bin immer interessiert für das Vernetzen mit Fachleuten in den systematischen Handel und systematischen Assetmanagementallocation Räumen. Hier finden Sie mein LinkedIn. EDIT: Heute in meiner E-Mail (3. Dezember 2015), erhielt ich eine Benachrichtigung, dass Inovance machte TRAIDE völlig kostenlos. Vielleicht wollen sie ein Bündel mehr Feedback auf diesem Beitrag wird eine Methode, um ein Ensemble-Filter auf einem Kompromiss zwischen Glätte und Reaktionsfähigkeit, zwei Eigenschaften suchte in einem Filter zu erstellen. Ein idealer Filter würde beide auf Preiswirkung reagieren, um nicht falsche Positionen zu halten, während er auch glatt ist, um nicht falsche Signale und unnötige Transaktionskosten zu verursachen. So, seit meiner Volatilität Trading-Strategie, mit drei sehr naive Filter (alle SMAs) völlig verpasst einen 27 Monate in XIV. I8217ve beschlossen, zu versuchen und zu verbessern Möglichkeiten zur Schaffung von besseren Indikatoren im Trend nach. Nun, unter der Erkenntnis, dass es potenziell Tonnen von komplexen Filtern in Existenz sein kann, entschied ich mich stattdessen auf einen Weg, um Ensemble-Filter zu schaffen, mit Hilfe einer Analogie aus Statistikmachine lernen. In der statischen Datenanalyse gibt es für eine Regressions - oder Klassifikationsaufgabe einen Kompromiss zwischen Bias und Varianz. Kurz gesagt, ist die Varianz schlecht wegen der Möglichkeit der Überbepflanzung auf ein paar unregelmäßige Beobachtungen, und Bias ist schlecht, weil die Möglichkeit der Unterlegung legitime Daten. In ähnlicher Weise gibt es bei der Filterung von Zeitreihen ähnliche Bedenken, außer, dass Bias als Verzögerung bezeichnet wird und Varianz als 8220whipsawing8221-Indikator angesehen werden kann. Im Wesentlichen würde ein idealer Indikator schnell mit den Daten bewegen, während zur gleichen Zeit nicht über eine Unzahl von kleinen Bumps-and-Reverses auf dem Weg, die falsche Signale an eine Handelsstrategie senden können. So, hier8217s, wie mein einfacher Algorithmus funktioniert: Die Eingaben in die Funktion sind die folgenden: A) Die Zeitreihe der Daten, die Sie versuchen, zu filtern B) Eine Sammlung von Kandidaten-Filter C) Eine Periode, über die Glättung und Reaktionsfähigkeit zu messen, definiert as the square root of the n-day EMA (2(n1) convention) of the following: a) Responsiveness: the squared quantity of pricefilter 8211 1 b) Smoothness: the squared quantity of filter(t)filter(t-1) 8211 1 (aka R8217s return. calculate) function D) A conviction factor, to which power the errors will be raised. This should probably be between .5 and 3 E) A vector that defines the emphasis on smoothness (vs. emphasis on responsiveness), which should range from 0 to 1. Here8217s the code: This gets SPY data, and creates two utility functions8211xtsApply, which is simply a column-based apply that replaces the original index that using a column-wise apply discards, and sumIsNa, which I use later for counting the numbers of NAs in a given row. It also creates my candidate filters, which, to keep things simple, are just SMAs 2-250. Here8217s the actual code of the function, with comments in the code itself to better explain the process from a technical level (for those still unfamiliar with R, look for the hashtags): The vast majority of the computational time takes place in the two xtsApply calls. On 249 different simple moving averages, the process takes about 30 seconds. Here8217s the output, using a conviction factor of 2: And here is an example, looking at SPY from 2007 through 2011. In this case, I chose to go from blue to green, orange, brown, maroon, purple, and finally red for smoothness emphasis of 0, 5, 25, 50, 75, 95, and 1, respectively. Notice that the blue line is very wiggly, while the red line sometimes barely moves, such as during the 2011 drop-off. One thing that I noticed in the course of putting this process together is something that eluded me earlier8211namely, that naive trend-following strategies which are either fully long or fully short based on a crossover signal can lose money quickly in sideways markets. However, theoretically, by finely varying the jumps between 0 to 100 emphasis on smoothness, whether in steps of 1 or finer, one can have a sort of 8220continuous8221 conviction, by simply adding up the signs of differences between various ensemble filters. In an 8220uptrend8221, the difference as one moves from the most responsive to most smooth filter should constantly be positive, and vice versa. In the interest of brevity, this post doesn8217t even have a trading strategy attached to it. However, an implied trading strategy can be to be long or short the SPY depending on the sum of signs of the differences in filters as you move from responsiveness to smoothness. Of course, as the candidate filters are all SMAs, it probably wouldn8217t be particularly spectacular. However, for those out there who use more complex filters, this may be a way to create ensembles out of various candidate filters, and create even better filters. Furthermore, I hope that given enough candidate filters and an objective way of selecting them, it would be possible to reduce the chances of creating an overfit trading system. However, anything with parameters can potentially be overfit, so that may be wishful thinking. All in all, this is still a new idea for me. For instance, the filter to compute the error terms can probably be improved. The inspiration for an EMA 20 essentially came from how Basel computes volatility (if I recall, correctly, it uses the square root of an 18 day EMA of squared returns), and the very fact that I use an EMA can itself be improved upon (why an EMA instead of some other, more complex filter). In fact, I8217m always open to how I can improve this concept (and others) from readers. Thanks for reading. NOTE: I am currently contracting in Chicago in an analytics capacity. If anyone would like to meet up, let me know. You can email me at ilya. kipnisgmail, or contact me through my LinkedIn here. This post will deal with a quick, finger in the air way of seeing how well a strategy scales8211namely, how sensitive it is to latency between signal and execution, using a simple volatility trading strategy as an example. The signal will be the VIXVXV ratio trading VXX and XIV, an idea I got from Volatility Made Simple8217s amazing blog. particularly this post. The three signals compared will be the 8220magical thinking8221 signal (observe the close, buy the close, named from the ruleOrderProc setting in quantstrat), buy on next-day open, and buy on next-day close. Let8217s get started. So here8217s the run-through. In addition to the magical thinking strategy (observe the close, buy that same close), I tested three other variants8211a variant which transacts the next open, a variant which transacts the next close, and the average of those two. Effectively, I feel these three could give a sense of a strategy8217s performance under more realistic conditions8211that is, how well does the strategy perform if transacted throughout the day, assuming you8217re managing a sum of money too large to just plow into the market in the closing minutes (and if you hope to get rich off of trading, you will have a larger sum of money than the amount you can apply magical thinking to). Ideally, I8217d use VWAP pricing, but as that8217s not available for free anywhere I know of, that means that readers can8217t replicate it even if I had such data. In any case, here are the results. Log scale (for Mr. Tony Cooper and others): My reaction The execute on next day8217s close performance being vastly lower than the other configurations (and that deterioration occurring in the most recent years) essentially means that the fills will have to come pretty quickly at the beginning of the day. While the strategy seems somewhat scalable through the lens of this finger-in-the-air technique, in my opinion, if the first full day of possible execution after signal reception will tank a strategy from a 1.44 Calmar to a .92, that8217s a massive drop-off, after holding everything else constant. In my opinion, I think this is quite a valid question to ask anyone who simply sells signals, as opposed to manages assets. Namely, how sensitive are the signals to execution on the next day After all, unless those signals come at 3:55 PM, one is most likely going to be getting filled the next day. Now, while this strategy is a bit of a tomato can in terms of how good volatility trading strategies can get (they can get a lot better in my opinion), I think it made for a simple little demonstration of this technique. Again, a huge thank you to Mr. Helmuth Vollmeier for so kindly keeping up his dropbox all this time for the volatility data Thanks for reading. NOTE: I am currently contracting in a data science capacity in Chicago. You can email me at ilya. kipnisgmail, or find me on my LinkedIn here. I8217m always open to beers after work if you8217re in the Chicago area. NOTE 2: Today, on October 21, 2015, if you8217re in Chicago, there8217s a Chicago R Users Group conference at Jaks Tap at 6:00 PM. Free pizza, networking, and R, hosted by Paul Teetor, who8217s a finance guy. Hope to see you there. This post deals with an impossible-to-implement statistical arbitrage strategy using VXX and XIV. The strategy is simple: if the average daily return of VXX and XIV was positive, short both of them at the close. This strategy makes two assumptions of varying dubiousness: that one can 8220observe the close and act on the close8221, and that one can short VXX and XIV. So, recently, I decided to play around with everyone8217s two favorite instruments on this blog8211VXX and XIV, with the idea that 8220hey, these two instruments are diametrically opposed, so shouldn8217t there be a stat-arb trade here8221 So, in order to do a lick-finger-in-the-air visualization, I implemented Mike Harris8217s momersion indicator . And then I ran the spread through it. In other words, this spread is certainly mean-reverting at just about all times. And here is the code for the results from 2011 onward, from when the XIV and VXX actually started trading. Here are the equity curves: With the following statistics: In other words, the short side is absolutely amazing as a trade8211except for the one small fact of having it be impossible to actually execute, or at least as far as I8217m aware. Anyhow, this was simply a for-fun post, but hopefully it served some purpose. Thanks for reading. NOTE: I am currently contracting and am looking to network in the Chicago area. You can find my LinkedIn here. This post will evaluate signals based on the rank regression hypotheses covered in the last post. The last time around, we saw that rank regression had a very statistically significant result. Therefore, the next step would be to evaluate the basic signals 8212 whether or not there is statistical significance in the actual evaluation of the signal8211namely, since the strategy from SeekingAlpha simply selects the top-ranked ETF every month, this is a very easy signal to evaluate. Simply, using the 1-24 month formation periods for cumulative sum of monthly returns, select the highest-ranked ETF and hold it for one month. Here8217s the code to evaluate the signal (continued from the last post), given the returns, a month parameter, and an EW portfolio to compare with the signal. Okay, so what8217s going on here is that I compare the signal against the equal weight portfolio, and take means and z scores of both the signal values in general, and against the equal weight portfolio. I plot these values, along with boxplots of the distributions of both the signal process, and the difference between the signal process and the equal weight portfolio. Here are the results: To note, the percents are already multiplied by 100, so in the best cases, the rank strategy outperforms the equal weight strategy by about 30 basis points per month. However, these results are8230not even in the same parking lot as statistical significance, let alone in the same ballpark. Now, at this point, in case some people haven8217t yet read Brian Peterson8217s paper on strategy development. the point of hypothesis-driven development is to reject hypothetical strategies ASAP before looking at any sort of equity curve and trying to do away with periods of underperformance. So, at this point, I would like to reject this entire strategy because there8217s no statistical evidence to actually continue. Furthermore, because August 2015 was a rather interesting month, especially in terms of volatility dispersion, I want to return to volatility trading strategies, now backed by hypothesis-driven development. If anyone wants to see me continue to rule testing with this process, let me know. If not, I have more ideas on the way. Thanks for reading. NOTE: while I am currently consulting, I am always open to networking, meeting up (Philadelphia and New York City both work), consulting arrangements, and job discussions. Contact me through my email at ilya. kipnisgmail, or through my LinkedIn, found here. Post navigation CategoriesTrading with Bollinger Bands (R) The Bollinger Bands reg will bracket price action. In times of high volatility, they widen, while in times of low volatility, they move closer together. So basically, they adjust to the movement and volatility of the market. This extra volatility filter is the real value of this tool. There are two conditions we look for in a trading opportunity. We want to buy a pullback down to support when the market is in an uptrend or sell a rally up to resistance when the market is in a downtrend. The Bollinger Bands typically offer good resistance and support for our trade setup, so we just have to make sure we are following the strong trending pairs. Letrsquos look at an example on this USDCHF daily chart. Created by FXCM Marketscope Charts 2.0 The trend is up as we can see a series of higher highs and higher lows, which means to look for a dip down to support (the lower band) for a buying opportunity. I have two examples noted on the charthellipthe first took place in May and the second took place in June of this year. The market traded down to the lower Bollinger Band in each of the instances noted in the boxes. However, this is not necessarily the buy itself but rather just the signal to begin to look for a buy on a reversal. Traders will use a variety of methods to determine the entry, ranging from using their favorite indicator to just buying as the market moves up through the previous high. One popular approach is to buy on the first candle that closes above the middle linehellipthe 20-day Simple Moving Average. This serves as more confirmation of the reversal and increases our chance of success on the trade. (On the chart above, the ldquobuy candlerdquo is identified by a green arrow.) Traders could then place their protective stop below the lowest wick in the box and look for twice that risk in profit for a 1:2 risk:reward ratio. I would like to mention that price action on the USDCHF moved down and touched the lower Bollinger Band four times over the last several days. This means we should be on the lookout for another buying opportunity. But rather than just buying right now, this would be the time to use your approach to pinpoint that buy entry to increase your chance of success on the trade. Price has moved up since the lower band was tested last week. By exercising patience and discipline and waiting for that first close above the 20-day Simple Moving Average would be a way to enter this trade using the Bollinger Band strategy that you just learned. New to the FX market Save hours in figuring out what FOREX trading is all about. Take this free 20 minute ldquoNew to FXrdquo course presented by DailyFX Education. In diesem Kurs lernen Sie die Grundlagen einer Forex-Transaktion kennen, welche Hebelwirkung es gibt und wie Sie eine angemessene Hebelwirkung für Ihren Handel ermitteln können. Registe r HERE to start your FOREX trading now DailyFX provides forex news and technical analysis on the trends that influence the global currency markets.

No comments:

Post a Comment