Wednesday, November 16, 2016

Moving Access Beispiele Time Series

Moving Average Dieses Beispiel lehrt, wie Sie den gleitenden Durchschnitt einer Zeitreihe in Excel berechnen. Eine Bewegung wird verwendet, um Unregelmäßigkeiten (Spitzen und Täler) zu glätten, um Trends leicht zu erkennen. 1. Erstens, werfen wir einen Blick auf unsere Zeitreihe. 2. Klicken Sie auf der Registerkarte Daten auf Datenanalyse. Hinweis: Klicken Sie hier, um das Analyse-ToolPak-Add-In zu laden. 3. Wählen Sie Verschiebender Durchschnitt aus, und klicken Sie auf OK. 4. Klicken Sie im Feld Eingabebereich auf den Bereich B2: M2. 5. Klicken Sie in das Feld Intervall und geben Sie 6 ein. 6. Klicken Sie in das Feld Ausgabebereich und wählen Sie Zelle B3 aus. 8. Zeichnen Sie ein Diagramm dieser Werte. Erläuterung: Da wir das Intervall auf 6 setzen, ist der gleitende Durchschnitt der Durchschnitt der letzten 5 Datenpunkte und der aktuelle Datenpunkt. Als Ergebnis werden Spitzen und Täler geglättet. Die Grafik zeigt eine zunehmende Tendenz. Excel kann den gleitenden Durchschnitt für die ersten 5 Datenpunkte nicht berechnen, da nicht genügend frühere Datenpunkte vorhanden sind. 9. Wiederholen Sie die Schritte 2 bis 8 für Intervall 2 und Intervall 4. Fazit: Je größer das Intervall, desto mehr werden die Spitzen und Täler geglättet. Je kleiner das Intervall, desto näher sind die gleitenden Mittelwerte zu den tatsächlichen Datenpunkten. Gefällt Ihnen diese Website? Bitte teilen Sie diese Seite auf Googlemoving Durchschnitt Durchschnitt der Zeitreihen-Daten (Beobachtungen gleichmäßig in der Zeit) aus mehreren aufeinander folgenden Zeiträumen. Wird bewegt, weil es kontinuierlich neu berechnet wird, sobald neue Daten verfügbar sind, schreitet es fort, indem es den frühesten Wert fällt und den letzten Wert addiert. Beispielsweise kann der gleitende Durchschnitt der sechsmonatigen Verkäufe berechnet werden, indem man den Durchschnitt der Verkäufe von Januar bis Juni, dann den Durchschnitt der Verkäufe von Februar bis Juli, dann von März bis August und so weiter berechnet. (1) reduzieren die Wirkung von temporären Variationen in den Daten, (2) verbessern die Anpassung von Daten an eine Zeile (ein Prozess namens Glättung), um die Daten Trend deutlicher zu zeigen, und (3) markieren Sie einen beliebigen Wert über oder unter der Trend. Wenn Sie etwas mit sehr hoher Varianz sind das Beste, was Sie möglicherweise tun können, ist herauszufinden, den gleitenden Durchschnitt. Ich wollte wissen, was der gleitende Durchschnitt der Daten war, so hätte ich ein besseres Verständnis davon, wie wir taten. Wenn Sie versuchen, herauszufinden, einige Zahlen, die oft das Beste, was Sie tun können, ist die Berechnung der gleitenden Durchschnitt zu ändern. Das beste von BusinessDictionary, geliefert dailySmoothing Daten entfernt zufällige Variation und zeigt Trends und zyklische Komponenten Inhärent in der Sammlung von Daten im Laufe der Zeit übernommen wird, ist eine Form der zufälligen Variation. Es gibt Methoden zur Verringerung der Annullierung der Wirkung aufgrund zufälliger Variation. Eine häufig verwendete Technik in der Industrie ist Glättung. Diese Technik zeigt, wenn sie richtig angewendet wird, deutlicher den zugrunde liegenden Trend, saisonale und zyklische Komponenten. Es gibt zwei verschiedene Gruppen von Glättungsmethoden Mittelungsmethoden Exponentielle Glättungsmethoden Mittelwertbildung ist der einfachste Weg, um Daten zu glätten Wir werden zunächst einige Mittelungsmethoden untersuchen, z. B. den einfachen Mittelwert aller vergangenen Daten. Ein Manager eines Lagers möchte wissen, wie viel ein typischer Lieferant in 1000-Dollar-Einheiten liefert. Er / sie nimmt eine Stichprobe von 12 Lieferanten, die zufällig die folgenden Ergebnisse erhalten: Der berechnete Mittelwert oder Durchschnitt der Daten 10. Der Manager beschließt, dies als Schätzung der Ausgaben eines typischen Lieferanten zu verwenden. Ist dies eine gute oder schlechte Schätzung Mittel quadratischen Fehler ist ein Weg, um zu beurteilen, wie gut ein Modell ist Wir berechnen die mittlere quadratische Fehler. Der Fehler true Betrag verbraucht minus die geschätzte Menge. Der Fehler quadriert ist der Fehler oben, quadriert. Die SSE ist die Summe der quadratischen Fehler. Die MSE ist der Mittelwert der quadratischen Fehler. MSE Ergebnisse zum Beispiel Die Ergebnisse sind: Fehler und quadratische Fehler Die Schätzung 10 Die Frage stellt sich: Können wir das Mittel verwenden, um Einkommen zu prognostizieren, wenn wir einen Trend vermuten Ein Blick auf die Grafik unten zeigt deutlich, dass wir dies nicht tun sollten. Durchschnittliche Gewichtungen alle früheren Beobachtungen gleich In Zusammenfassung, wir sagen, dass die einfachen Mittelwert oder Mittelwert aller vergangenen Beobachtungen ist nur eine nützliche Schätzung für die Prognose, wenn es keine Trends. Wenn es Trends, verwenden Sie verschiedene Schätzungen, die den Trend berücksichtigen. Der Durchschnitt wiegt alle früheren Beobachtungen gleichermaßen. Zum Beispiel ist der Durchschnitt der Werte 3, 4, 5 4. Wir wissen natürlich, dass ein Durchschnitt berechnet wird, indem alle Werte addiert werden und die Summe durch die Anzahl der Werte dividiert wird. Eine andere Methode, den Durchschnitt zu berechnen, ist die Addition jedes Wertes durch die Anzahl der Werte oder 3/3 4/3 5/3 1 1.3333 1.6667 4. Der Multiplikator 1/3 wird als Gewicht bezeichnet. Allgemein: bar frac sum links (frac rechts) x1 links (frac rechts) x2,. ,, Links (frac rechts) xn. Die (linke (frac rechts)) sind die Gewichte, und natürlich summieren sie sich auf 1. Bei der Berechnung eines laufenden gleitenden Durchschnittes ist die Mittelwertbildung im mittleren Zeitraum sinnvoll. Im vorigen Beispiel wurde der Mittelwert der ersten 3 berechnet Zeit-Perioden und platzierten sie neben Periode 3. Wir könnten den Durchschnitt in der Mitte des Zeitintervalls von drei Perioden platziert haben, das heißt, neben Periode 2. Dies funktioniert gut mit ungeraden Zeitperioden, aber nicht so gut für die gleiche Zeit Zeiträume. Also, wo würden wir den ersten gleitenden Durchschnitt platzieren, wenn M 4 Technisch, würde der Moving Average bei t 2,5, 3,5 fallen. Um dieses Problem zu vermeiden, glätten wir die MAs unter Verwendung von M 2. So glätten wir die geglätteten Werte Wenn wir eine gerade Anzahl von Terme mitteln, müssen wir die geglätteten Werte glätten Die folgende Tabelle zeigt die Ergebnisse mit M 4. Zeitreihe Beispiel Die folgenden Beispiele Illustrieren, wie XLMiner verwendet werden, um die Daten zu erforschen, um Trends und Saisonalitäten aufzudecken. Wählen Sie auf dem XLMiner-Farbband auf der Registerkarte Anwenden Ihres Modells die Option Hilfe - Beispiele aus. Dann Prognose / Data Mining Beispiele und öffnen Sie den Beispieldatensatz Income. xlsx. Dieser Datensatz enthält das durchschnittliche Einkommen der Steuerzahler nach Staat. Typischerweise werden die folgenden Schritte in einer Zeitreihenanalyse durchgeführt. 1. Die Daten werden in zwei Sätze unterteilt, wobei 60 der dem Trainingsset zugeordneten Daten und 40 dem Validierungssatz zugeordnet sind. 2. Explorative Techniken werden sowohl auf die Trainings - als auch auf die Validierungssets angewendet. Wenn die Ergebnisse synchron sind, dann kann das Modell passen. Wenn die ACF - und PACF-Diagramme dieselben sind, kann das gleiche Modell für beide Sätze verwendet werden. 3. Das Modell wird nach der Methode ARIMA (Autoregressive Integrated Moving Average) angepasst. 4. Wenn ein Modell nach der ARIMA-Methode passt, zeigt XLMiner die ACF - und PACF-Plots für Residuen an. Sind diese Plots im Band von UCL und LCL, so sind die Residuen zufällig und das Modell adäquat. 5. Wenn die Residuen nicht innerhalb der Banden liegen, gibt es einige Korrelationen, und das Modell sollte verbessert werden. Führen Sie zuerst eine Partition auf den Daten durch. Wählen Sie eine Zelle innerhalb des Datensatzes aus, und klicken Sie dann auf der Registerkarte Zeitreihen auf dem XLMiner ribboon auf Partition, um das Dialogfeld Time Series Partition Data zu öffnen. Wählen Sie unter der Liste Variablen Jahr aus, und klicken Sie auf gt, um zu Zeitvariable zu wechseln. Wählen Sie die restlichen Variablen in der Liste Variablen aus, und klicken Sie auf gt, um sie in die Variablen in der Liste Partitionsdaten aufzunehmen. Wählen Sie unter Partitionierungsoptionen festlegen die Option Datensätze angeben, um die Anzahl der Datensätze anzugeben, die den Trainings - und Validierungssätzen zugeordnet sind. Wählen Sie unter "Datensätze für die Partitionierung angeben" die Option Datensätze angeben, und geben Sie 50 für die Anzahl der Trainingssatzdatensätze und 21 für die Anzahl der Prüfsatzsätze ein. Wenn Prozentsätze unter Partitionierungsoptionen angeben ausgewählt ist, ordnet XLMiner jedem Satz die Anzahl der Datensätze zu, die vom Benutzer eingegeben oder automatisch von XLMiner unter Prozentsätze für Partitionierung angeben eingegeben werden. Klicken Sie auf OK. Das DataPartitionTS-Arbeitsblatt wird rechts neben dem Arbeitsblatt eingefügt. In dem obigen Ausgang ist das Partitionierungsverfahren sequentiell (versus zufällig). Die ersten 50 Beobachtungen wurden dem Trainingsset zugewiesen und die verbleibenden 21 Beobachtungen wurden dem Validierungsset zugewiesen. Wählen Sie eine Zelle im DataPartitionTS-Arbeitsblatt und dann im XLMiner-Band auf der Registerkarte Zeitreihenfolge die Option ARIMA - Autokorrelationen aus, um das ACF-Dialogfeld anzuzeigen. Wählen Sie CA als Ausgewählte Variable aus, geben Sie für beide ACF-Parameter für Trainingsdaten und Validierungsdaten 10 ein. Das Plot-ACF-Diagramm ist standardmäßig ausgewählt. Klicken Sie auf OK. Das Arbeitsblatt ACFOutput wird nach dem DataPartitionTS-Arbeitsblatt eingefügt. Beachten Sie bei jedem Diagramm, dass die Autokorrelation mit zunehmender Anzahl von Verzögerungen abnimmt. Dies legt nahe, dass ein bestimmtes Muster in jeder Partition existiert. Da sich das Muster jedoch nicht wiederholt, kann davon ausgegangen werden, dass keine Saisonalität in den Daten enthalten ist. Darüber hinaus, da beide Diagramme ein ähnliches Muster zeigen, können wir das gleiche Modell sowohl für die Validierung und Trainingssets passen. Klicken Sie auf der Registerkarte Zeitreihenfolge auf das DataPartitionTS-Arbeitsblatt und auf das XLMiner-Band, und wählen Sie ARIMA - Partial Autocorrelations aus, um das Dialogfeld PACF zu öffnen. Wählen Sie CA aus der Liste Variable In Input Data aus, und klicken Sie dann auf gt, um die Variable in die Selected-Variable zu verschieben. Geben Sie 40 für maximale Verzögerung unter PACF-Parameter für Trainingsdaten und 15 für PACF-Parameter für Validierungsdaten ein. Das Plot-PACF-Diagramm ist standardmäßig ausgewählt. Klicken Sie auf OK. Das Arbeitsblatt ACFOutput wird direkt rechts neben dem DataPartitionTS-Arbeitsblatt eingefügt. Beide PACF-Plots zeigen ähnliche Muster sowohl in der Validierung und Trainingssets. Als Ergebnis können wir das gleiche Modell für beide Sätze verwenden. PACF-Ausgabe für Trainingsdaten PACF-Ausgabe für Validierungsdaten Die PACF-Funktion zeigt ein bestimmtes Muster, dh es gibt einen Trend in den Daten. Da sich das Muster jedoch nicht wiederholt, können wir schließen, dass die Daten keine Saisonalität zeigen. Sowohl die ACF-und PACF-Charts deuten darauf hin, dass ein bestimmtes Muster existiert, aber ohne jegliche Saisonalität. Beide Datensätze weisen dasselbe Verhalten sowohl in den Trainings - als auch in den Validierungssets auf, was nahelegt, dass das gleiche Modell für jeden geeignet ist. Jetzt sind wir bereit für das Modell. Das ARIMA-Modell akzeptiert drei Parameter: p - die Anzahl der autoregressiven Begriffe d - die Anzahl der nicht saisonalen Unterschiede und q - die Anzahl der verzögerten Fehler (gleitende Mittelwerte). Daran erinnern, dass die ACF-Plot zeigte keine Saisonalität in den Daten, was bedeutet, dass Autokorrelation ist fast statisch, abnehmend mit der Anzahl der Lags zunehmen. Dies schlägt die Einstellung q 0 vor, da es keine verzögerten Fehler zu sein scheint. Das PACF-Diagramm zeigte einen großen Wert für die erste Verzögerung, aber minimale Kurven für aufeinanderfolgende Verzögerungen. Diese vorgeschlagene Einstellung p 1. Bei den meisten Datensätzen ist die Einstellung d 1 ausreichend oder kann zumindest ein Ausgangspunkt sein. Klicken Sie auf der Registerkarte Zeitreihenfolge auf das DataPartitionTS-Arbeitsblatt und auf das XLMiner-Farbband, wählen Sie ARIMA-ARIMA-Modell aus, um das Dialogfeld Zeitreihen-ARIMA aufzurufen. Wählen Sie CA aus der Liste Variable In Input Data aus, und klicken Sie dann auf gt, um die Variable in das Feld Ausgewählte Variablen zu verschieben. Legen Sie unter Nicht saisonale Parameter Autoregressive (p) auf 1, Differenz (d) bis 1 und Moving Average (q) auf 0 fest. Klicken Sie auf Erweitert, um das Dialogfeld ARIMA - Erweiterte Optionen zu öffnen. Wählen Sie Angepasste Werte und Restwerte, Prognosen erstellen und Berichtsvorhersage-Konfidenzintervalle aus. Die Standard-Konfidenzniveau-Einstellung von 95 wird automatisch eingegeben. Varianz-Kovarianzmatrix ist standardmäßig ausgewählt. Klicken Sie im Dialogfeld ARIMA-Erweiterte Optionen und im Dialogfeld Zeitreihe - ARIMA auf OK. XLMiner berechnet und zeigt verschiedene Parameter und Diagramme in zwei Ausgabeblättern, ARIMAOutput und ARIMAResiduals an. Das ARIMAOutput-Arbeitsblatt enthält das unten gezeigte ARIMA-Modell. Auf diesem Arbeitsblatt hat XLMiner den konstanten Term und den AR1-Term für unser Modell berechnet. Dies sind die Konstanten und f1 Ausdrücke der Prognosegleichung. Siehe die folgende Ausgabe des Chi-Quadrat-Tests. Der kleine p-Wert für den konstanten Term (0,9704) und AR1 Term (0) deutet darauf hin, dass das Modell eine gute Anpassung an unsere Daten ist. Öffnen Sie das Arbeitsblatt ARIMAResiduals. In dieser Tabelle sind die tatsächlichen und eingestellten Werte und die daraus resultierenden Residuen aufgetragen. Wie in der Grafik unten gezeigt, passen die Werte von Actual und Forecasted ziemlich gut zusammen. Die Nützlichkeit des Modells in der Prognose hängt davon ab, wie nah sich die tatsächlichen und prognostizierten Werte im Zeitdiagramm des Validierungssatzes befinden. Als nächstes sehen wir die ACF - und PACF-Diagramme für Fehler, die sich am unteren Rand des ARIMAOutput-Arbeitsblatts befinden. Alle Verzögerungen, außer Verzögerung 1, liegen klar innerhalb der UCL - und LCL-Bänder. Dies zeigt, dass die Residuen zufällig sind und nicht korreliert sind, was der erste Hinweis ist, dass die Modellparameter für diese Daten ausreichend sind. Siehe Tabelle Vorhersage auf dem ARIMAOutput-Arbeitsblatt. Die Tabelle zeigt den aktuellen und prognostizierten Wert. Die unteren und oberen Werte repräsentieren die untere und obere Grenze des Konfidenzintervalls. Es besteht die Wahrscheinlichkeit, dass der prognostizierte Wert in diesen Bereich fällt. Der Zeitplan rechts zeigt an, wie das Modell, das wir mit dem Training Set bestückten und auf dem Validierungs-Set durchgeführt haben. Die tatsächlichen und prognostizierten Werte sind ziemlich nahe, was bestätigt, dass unser Modell gut für die Prognose sein sollte. Um die Werte unter der unteren und oberen Spalte in demselben Diagramm darzustellen, wählen Sie den Graphen aus, und wählen Sie dann auf dem Excel-Farbband die Option Design - Daten auswählen, um das Dialogfeld Datenquelle auswählen zu öffnen. Geben Sie für den Diagrammdatenbereich ARIMAOutputB56: G77 ein. Dann deaktivieren Sie Fehler unter Legendeneinträgen. Klicken Sie auf OK. Dieses Diagramm zeigt, dass die tatsächlichen und prognostizierten Werte innerhalb der unteren und oberen 95 Konfidenzniveaubanden liegen. Obwohl die tatsächlichen Werte ein wenig schwanken, fallen diese Werte in die Mitte des Bereichs. Aus dem ARIMA-Ausgang können wir schließen, dass unser Modell unter Verwendung von Parametern (1, 1, 0) die Daten adäquat passt.


No comments:

Post a Comment