Saturday 14 January 2017

Exponentiell Gewichtet Gleitender Mittelwert Algorithmus

Exploration der exponentiell gewichteten Moving Average Volatilität ist die häufigste Maßnahme für das Risiko, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, lesen Sie unter Verwenden der Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächlichen Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Wenn also alpha (a) ein Gewichtungsfaktor ist (speziell eine 1 m), dann sieht eine einfache Varianz so aus: Die EWMA verbessert die einfache Varianz Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Yesterdays (sehr jüngsten) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre tägliche Aktienkursdaten, das sind 509 tägliche Renditen und 1 509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit verringern, so dass eine einfache Varianz künstlich hoch sein könnte. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkenden Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir sind nur das Hinzufügen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Ein Reichtum Psychologe ist ein Psychiater, die spezialisiert auf Fragen, die sich speziell auf reiche Personen. Geldwäsche ist der Prozess der Schaffung des Aussehens, dass große Mengen an Geld aus schweren Verbrechen, wie erhalten. Rechnungslegungsmethoden, die sich auf Steuern und nicht auf das Auftreten von öffentlichen Abschlüssen konzentrieren. Steuerberatung wird geregelt. Der Boomer-Effekt bezieht sich auf den Einfluss, den der zwischen 1946 und 1964 geborene Generationscluster auf den meisten Märkten hat. Ein Anstieg der Preise für Aktien, die oft in der Woche zwischen Weihnachten und Neujahr039s Day auftritt. Es gibt zahlreiche Erklärungen. Ein Begriff verwendet von John Maynard Keynes verwendet in einem seiner Wirtschaftsbücher. In seiner Publikation 1936, The General Theory of Employment. I haben eine Zeitreihe von Aktienkursen und wollen den gleitenden Durchschnitt über ein zehn Minuten Fenster zu berechnen (siehe Diagramm unten). Da Preis-Ticks sporadisch auftreten (d. H. Sie sind nicht periodisch), scheint es am schönsten, einen zeitlich gewichteten gleitenden Durchschnitt zu berechnen. In dem Diagramm gibt es vier Preisänderungen: A, B, C und D, wobei die letzteren drei innerhalb des Fensters auftreten. Beachten Sie, dass, weil B nur einige Zeit in das Fenster (z. B. 3 Minuten) auftritt, der Wert von A noch zur Berechnung beiträgt. In der Tat, so weit ich sagen kann, sollte die Berechnung nur auf den Werten von A, B und C (nicht D) und den Zeitabständen zwischen ihnen und dem nächsten Punkt (oder im Fall von A: die Dauer zwischen dem Start basieren Des Zeitfensters und B). Anfänglich wird D keine Wirkung haben, da seine Zeitwichtung Null ist. Ist das korrekt? Angenommen, das ist richtig, meine Sorge ist, dass der gleitende Durchschnitt mehr als die nicht gewichtete Berechnung (die für den Wert von D sofort Rechnung) lag, aber die nicht gewichtete Berechnung hat seine eigenen Nachteile: A würde Haben so viel Wirkung auf das Ergebnis wie die anderen Preise, obwohl sie außerhalb des Zeitfensters. Eine plötzliche Aufregung von schnellen Preis-Ticks würde stark beeinträchtigen den gleitenden Durchschnitt (obwohl dies vielleicht wünschenswert ist) Kann jeder bieten einen Rat, über welchen Ansatz scheint am besten, oder ob theres eine alternative (oder Hybrid-) Ansatz wert der Prüfung gefragt Apr 14 12 at 21: 35 Ihre Argumentation ist richtig. Was möchten Sie den Durchschnitt verwenden, obwohl ohne zu wissen, dass seine schwer, irgendeinen Rat geben. Möglicherweise wäre eine Alternative, Ihren laufenden Durchschnitt A zu betrachten, und wenn ein neuer Wert V hereinkommt, berechnen Sie den neuen Durchschnitt A, um (1-c) AcV zu sein, wobei c zwischen 0 und 1 ist. Auf diese Weise haben die neueren Zecken Ein stärkerer Einfluss, und die Wirkung der alten Zecken im Laufe der Zeit zerstreut. Man könnte sogar c abhängen von der Zeit seit den vorherigen Zecken (c immer kleiner als die Zecken näher kommen). In dem ersten Modell (Gewichtung) würde der Durchschnitt jede Sekunde unterschiedlich sein (da alte Ablesungen ein geringeres Gewicht und neue Ablesungen höher erhalten), so daß sie sich stets ändern, was nicht wünschenswert sein kann. Mit dem zweiten Ansatz, die Preise machen plötzliche Sprünge, wie neue Preise eingeführt werden und alte verschwinden aus Fenster. Die beiden Vorschläge kommen aus der diskreten Welt, aber Sie könnten eine Inspiration für Ihren speziellen Fall zu finden. Werfen Sie einen Blick auf exponentielle Glättung. In diesem Ansatz stellen Sie den Glättungsfaktor (01) ein, mit dem Sie den Einfluss der letzten Elemente auf den Prognosewert ändern können (ältere Elemente werden exponentiell abnehmende Gewichte zugewiesen): Ich habe eine einfache Animation erstellt, wie die exponentielle Glättung den Verlauf verfolgen würde Eine einheitliche Zeitreihe x1 1 1 1 3 3 2 2 2 1 mit drei verschiedenen: Schauen Sie sich auch einige der Verstärkungstechniken an (siehe die verschiedenen Diskontierungsmethoden) zum Beispiel TD-Learning und Q-Learning. Ja, der gleitende Durchschnitt wird natürlich verzögern. Dies liegt daran, seinen Wert historische Informationen: es fasst Proben des Preises in den letzten 10 Minuten. Diese Art von Durchschnitt ist inhärent laggy. Es hat eine eingebaute in fünf Minuten Versatz (weil eine Box Durchschnitt ohne Offset auf - 5 Minuten basieren würde, auf die Probe zentriert). Wenn der Preis bei A für eine lange Zeit und dann ändert einmal auf B, dauert es 5 Minuten für den Durchschnitt zu erreichen (AB) 2. Wenn Sie eine glatte Funktion ohne jede Verschiebung in der Domäne, das Gewicht durchschnittlich wollen Muss gleichmäßig um den Probenpunkt verteilt sein. Aber das ist unmöglich, für die Preise in Echtzeit auftreten, da künftige Daten nicht verfügbar ist. Wenn Sie möchten, dass eine neue Änderung, wie D, einen größeren Einfluss haben, verwenden Sie einen Durchschnitt, der ein größeres Gewicht auf die jüngsten Daten oder einen kürzeren Zeitraum oder beides gibt. Eine Möglichkeit, Daten zu glätten, besteht einfach darin, einen einzigen Akkumulator (den geglätteten Schätzer) E zu verwenden und periodische Abtastwerte der Daten S E zu nehmen. E wird wie folgt aktualisiert: Ie. Wird ein Bruchteil K (zwischen 0 und 1) der Differenz zwischen dem aktuellen Preissample S und dem Schätzer E zu E addiert. Angenommen, der Preis sei bei A für eine lange Zeit gewesen, so daß E bei A liegt und sich dann plötzlich ändert Zu B. Der Schätzer beginnt sich auf exponentielle Weise in Richtung B zu bewegen (wie Heizkühlung, Ladeentladung eines Kondensators, usw.). Am Anfang wird es einen großen Sprung, und dann kleinere und kleinere Schritten. Wie schnell es sich bewegt, hängt von K ab. Wenn K 0 ist, bewegt sich der Schätzer überhaupt nicht, und wenn K 1 ist, bewegt er sich sofort. Mit K können Sie einstellen, wie viel Gewicht Sie dem Schätzer gegenüber der neuen Probe geben. Mehr Gewicht wird auf neuere Beispiele implizit gegeben, und das Musterfenster erstreckt sich grundsätzlich auf unendlich: E basiert auf jeder Wertprobe, die jemals aufgetreten ist. Obwohl natürlich sehr alte haben keinen Einfluss auf den aktuellen Wert. Eine sehr einfache, schöne Methode. Dies ist die gleiche wie Tom39s Antwort. Seine Formel für den neuen Wert des Schätzers ist (1 - K) E KS. Die algebraisch gleich E K (S - E) ist. Es ist eine quotlineare Blendingfunktion quot zwischen dem aktuellen Schätzer E und dem neuen Abtastwert S, wobei der Wert von K 0, 1 die Mischung steuert. Schreibe es so ist schön und nützlich. Wenn K 0.7 ist, nehmen wir 70 von S und 30 von E, die die gleiche wie die Addition von 70 der Differenz zwischen E und S ist zurück zu E. ndash Kaz Apr 14 12 um 22:15 Bei der Expansion Toms Antwort, die Formel (Tt - t n - 1) T, dh a ist ein Verhältnis von Delta der Ankunftszeit über dem Mittelungsintervall v 1 (vorherige Verwendung verwenden), um den Abstand zwischen den Zecken zu formalisieren (enge Zecken haben eine proportional geringere Gewichtung) Punkt) oder v (1 - u) a (lineare Interpolation oder vu (nächster Punkt) Weitere Informationen finden Sie auf Seite 59 des Buches Eine Einführung in die Hochfrequenzfinanzierung.


No comments:

Post a Comment