Friday 10 November 2017

Beispiele Von Beides Linear Regression And The Moving Averages And Smoothing Techniken


Vorhersage von Smoothing Techniques. This Website ist ein Teil der JavaScript-E-Labs Lernobjekte für die Entscheidungsfindung Andere JavaScript in dieser Serie sind unter verschiedenen Anwendungsbereichen im MENU-Bereich auf dieser Seite kategorisiert. Eine Zeitreihe ist eine Abfolge von Beobachtungen, die Sind in der Zeit geordnet Inhärent in der Sammlung von Daten über die Zeit genommen ist irgendeine Form von zufälligen Variation Es gibt Methoden zur Verringerung der Streichung der Wirkung durch zufällige Variation Weit verbreitete Techniken sind Glättung Diese Techniken, wenn richtig angewendet, zeigt deutlicher die zugrunde liegenden Trends. Geben Sie die Zeitreihe Row-weise in der Reihenfolge, beginnend von der linken oberen Ecke und den Parameter s, dann klicken Sie auf die Schaltfläche Berechnen, um eine Periode-voraus Prognose zu erhalten. Blank-Boxen sind nicht in den Berechnungen enthalten, aber Nullen sind. Bei der Eingabe Ihrer Daten von Zelle zu Zelle in der Daten-Matrix zu bewegen, verwenden Sie die Tab-Taste nicht Pfeil oder geben Sie Schlüssel. Features der Zeitreihen, die durch Examini aufgedeckt werden könnte Ng seinen Graphen mit den prognostizierten Werten und das Residualverhalten, Bedingungsvorhersage Modellierung. Moving Averages Moving Mittelwerte gehören zu den beliebtesten Techniken für die Vorverarbeitung von Zeitreihen Sie werden verwendet, um zufällige weiße Rauschen aus den Daten zu filtern, um die Zeitreihe zu machen Glatter oder sogar, um bestimmte in der Zeitreihe enthaltene Informationskomponenten zu betonen. Exponentielle Glättung Dies ist ein sehr populäres Schema, um eine geglättete Zeitreihe zu produzieren, während bei fortlaufenden Beobachtungen die bisherigen Beobachtungen gleich gewichtet werden. Exponentielle Glättung weist exponentiell abnehmende Gewichte zu, wenn die Beobachtung älter wird Mit anderen Worten, die jüngsten Beobachtungen werden bei der Prognose relativ viel mehr gegeben als die älteren Beobachtungen. Die doppelte exponentielle Glättung ist besser bei der Handhabung von Trends. Triple Exponential Die Glättung ist bei der Handhabung von Parabeltrends besser. Ein exponentiell gewichteter gleitender Durchschnitt mit einer Glättungskonstante entspricht etwa einer einfachen Gleitender Durchschnitt der Länge dh Periode n, wobei a und n mit aa nn O ODER n 2 - a a verbunden sind. So würde beispielsweise ein exponentiell gewichteter gleitender Durchschnitt mit einer Glättungskonstante gleich 0 1 etwa einem 19-Tage-Gleitwert entsprechen Ein 40-Tage-einfacher gleitender Durchschnitt würde etwa einem exponentiell gewichteten gleitenden Durchschnitt entsprechen, wobei eine Glättungskonstante gleich 0 04878.Holt s Lineare Exponential-Glättung Angenommen, die Zeitreihe ist nicht saisonal, aber zeigt Trend an Holt-Methode schätzt sowohl den Strom Level und der aktuelle Trend. Notice, dass die einfache gleitende Durchschnitt ist Sonderfall der exponentiellen Glättung durch die Einstellung der Periode des gleitenden Durchschnitt auf die Ganzzahl Teil von 2-Alpha Alpha. Für die meisten Geschäftsdaten ein Alpha-Parameter kleiner als 0 40 ist oft Effektiv Allerdings kann man eine Gittersuche des Parameterraums mit 0 1 bis 0 9 mit Inkrementen von 0 1 ausführen. Dann hat das beste Alpha den kleinsten Mean Absolute Error MA Error. How, um mehrere Glättungsmethoden zu vergleichen Sind numerische Indikatoren für die Beurteilung der Genauigkeit der Prognose-Technik, ist der am weitesten verbreitete Ansatz bei der Verwendung visueller Vergleich von mehreren Prognosen, um ihre Genauigkeit zu beurteilen und wählen Sie unter den verschiedenen Vorhersage Methoden In diesem Ansatz muss man mit zB Excel auf dem gleichen Diagramm zu zeichnen Die ursprünglichen Werte einer Zeitreihenvariable und die vorhergesagten Werte aus verschiedenen Prognosemethoden, so dass ein visueller Vergleich erleichtert wird. Sie können die Vergangenheitsprognosen durch Glättungstechniken verwenden, um die vergangenen Prognosewerte auf der Grundlage von Glättungstechniken zu erhalten, die nur einen einzigen Parameter verwenden Holt - und Winters-Methoden verwenden zwei bzw. drei Parameter, daher ist es keine leichte Aufgabe, die optimalen oder sogar nahezu optimalen Werte durch Versuche und Fehler für die Parameter auszuwählen. Die einzelne exponentielle Glättung unterstreicht die Kurzstreckenperspektive Setzt das Niveau auf die letzte Beobachtung und basiert auf der Bedingung, dass es keinen Trend gibt. Der lineare Regress Ion, das zu den kleinsten Quadraten zu den historischen Daten passt oder transformierte historische Daten passt, stellt die lange Reichweite dar, die auf dem Grundtakt basiert. Holt s lineare exponentielle Glättung erfasst Informationen über den jüngsten Trend Die Parameter im Holt-Modell sind Ebenenparameter, Sollte verringert werden, wenn die Menge der Datenvariation groß ist und der Trends-Parameter erhöht werden sollte, wenn die aktuelle Trendrichtung durch die kausalen Faktoren unterstützt wird. Kurzfristige Prognose Beachten Sie, dass jedes JavaScript auf dieser Seite einen Schritt-Schritt voraus ist Prognose Um eine zweistufige Prognose zu erhalten, fügen Sie einfach den prognostizierten Wert dem Ende der Zeitreihendaten hinzu und klicken Sie dann auf die Schaltfläche Berechnen. Sie können diesen Vorgang für einige Male wiederholen, um die benötigten Kurzzeitprognosen zu erhalten. Time Series MethodsTime Serie Methoden sind statistische Techniken, die Nutzung von historischen Daten über einen Zeitraum von Zeit Zeitreihen Methoden davon ausgehen, dass was in der Vergangenheit wird auch weiterhin in der Zukunft auftreten Wie die Namenszeitreihen vorschlagen, beziehen sich diese Methoden auf die Prognose auf nur einen Faktor - Zeit Sie beinhalten den gleitenden Durchschnitt, die exponentielle Glättung und die lineare Trendlinie und gehören zu den beliebtesten Methoden - Prognose zwischen Service - und Fertigungsunternehmen Diese Methoden gehen davon aus, dass sich identifizierbare historische Muster oder Trends für die Nachfrage im Laufe der Zeit wiederholen werden. Moving Average. A Zeitreihenvorhersage kann so einfach sein wie die Nachfrage in der aktuellen Periode, um die Nachfrage in der nächsten Periode vorherzusagen Dies wird manchmal als naive oder intuitive Prognose bezeichnet 4 Zum Beispiel, wenn die Nachfrage 100 Einheiten in dieser Woche ist, ist die Prognose für die nächste Woche s Nachfrage 100 Einheiten, wenn die Nachfrage sich als 90 Einheiten statt, dann die folgende Woche s Nachfrage beträgt 90 Einheiten , Und so weiter Diese Art von Prognosemethode berücksichtigt nicht historisches Nachfrageverhalten, das es nur auf Nachfrage in der aktuellen Periode beruht. Es reagiert direkt auf das normale, zufällige m Nachfragesuche Die einfache gleitende Durchschnittsmethode nutzt in der jüngsten Vergangenheit mehrere Bedarfswerte, um eine Prognose zu entwickeln. Dies neigt dazu, die zufälligen Erhöhungen und Abnahmen einer Prognose, die nur eine Periode verwendet, zu dämpfen oder zu glätten. Der einfache gleitende Durchschnitt ist nützlich für Prognostizierte Nachfrage, die stabil ist und zeigt keine ausgeprägten Nachfrage Verhalten, wie ein Trend oder saisonale Muster. Moving Mittelwerte werden für bestimmte Zeiträume, wie z. B. drei Monate oder fünf Monate berechnet, je nachdem, wie viel der Prognostiker wünscht, die Nachfrage Daten zu glätten Je länger die gleitende durchschnittliche Periode ist, desto glatter wird es sein Die Formel für die Berechnung der einfachen gleitenden Durchschnitt ist ein einfaches Moving Average. Die Instant Paper Clip Office Supply Company verkauft und liefert Bürobedarf an Unternehmen, Schulen und Agenturen innerhalb einer 50-Meile Radius seines Lagers Das Bürobedarfsgeschäft ist wettbewerbsfähig, und die Fähigkeit, Aufträge umgehend zu liefern, ist ein Faktor, um neue Kunden zu bekommen und alt zu bleiben Die Büros in der Regel bestellen nicht, wenn sie niedrig auf Lieferungen laufen, aber wenn sie komplett auslaufen Als Ergebnis benötigen sie ihre Bestellungen sofort Der Manager der Firma will sicher genug Fahrer und Fahrzeuge zur Verfügung stehen, um Aufträge umgehend zu liefern und sie haben ausreichend Inventar auf Lager Der Manager möchte daher die Anzahl der Aufträge prognostizieren, die im nächsten Monat auftreten werden, dh die Nachfrage nach Lieferungen zu prognostizieren. Von den Aufzeichnungen der Lieferaufträge hat das Management die folgenden Daten für die letzten 10 Monate angesammelt, Von denen es will, um zu berechnen 3- und 5-Monats-Umzugsdurchschnitte. Lassen wir davon ausgehen, dass es das Ende Oktober Die Prognose, die entweder aus dem 3- oder der 5-Monats-gleitenden Durchschnitt ist in der Regel für den nächsten Monat in der Sequenz, Die in diesem Fall November ist Der gleitende Durchschnitt wird aus der Nachfrage nach Aufträgen für die letzten 3 Monate in der Reihenfolge nach der folgenden Formulierung berechnet. Der 5-Monats-Gleitender Durchschnitt wird aus dem Pr IO 5 Monate nach Bedarf Daten wie folgt. Die 3- und 5-Monats-Gleit-Durchschnitt-Prognosen für alle Monate der Nachfrage Daten sind in der folgenden Tabelle gezeigt, tatsächlich nur die Prognose für November auf der Grundlage der jüngsten monatlichen Nachfrage verwendet werden Der Manager Allerdings erlauben die früheren Prognosen für Vormonate uns, die Prognose mit der tatsächlichen Nachfrage zu vergleichen, um zu sehen, wie genau die Prognosemethode ist - das ist, wie gut es tut. Three - und Fünf-Monats-Durchschnitt. Beide gleitende durchschnittliche Prognosen in Die oben genannte Tabelle neigt dazu, die in den tatsächlichen Daten auftretende Variabilität zu glätten. Dieser Glättungseffekt kann in der folgenden Abbildung beobachtet werden, in der die 3-Monats - und 5-Monatsdurchschnitte einem Graphen der ursprünglichen Daten überlagert wurden. Die 5-Monats - Gleitender Durchschnitt in der vorherigen Abbildung glättet Schwankungen in einem größeren Ausmaß als die 3-Monats-gleitenden Durchschnitt Allerdings, die 3-Monats-Durchschnitt mehr spiegelt die jüngsten Daten zur Verfügung, um die Büro-Versorgung Manager Im Allgemeinen, Prognosen usin G der längerfristige gleitende Durchschnitt sind langsamer, um auf die jüngsten Veränderungen in der Nachfrage zu reagieren, als die, die mit kürzeren Periodenbewegungsdurchschnitten gemacht wurden. Die zusätzlichen Datenperioden dämpfen die Geschwindigkeit, mit der die Prognose reagiert. Die Festlegung der entsprechenden Anzahl von Perioden, die in einem Umzug verwendet werden sollen Durchschnittliche Prognose erfordert oft einige Menge an Versuch-und-Fehler-Experimente. Der Nachteil der gleitenden durchschnittlichen Methode ist, dass es nicht auf Variationen, die aus einem Grund, wie Zyklen und saisonale Effekte auftreten Faktoren, die Änderungen verursachen sind in der Regel ignoriert Es ist Grundsätzlich eine mechanische Methode, die historische Daten in einer konsistenten Weise widerspiegelt. Allerdings hat die gleitende durchschnittliche Methode den Vorteil, einfach zu bedienen, schnell und relativ preiswert zu sein. Im Allgemeinen kann diese Methode eine gute Prognose für den kurzen Lauf liefern, aber Es sollte nicht zu weit in die Zukunft geschoben werden. Weighted Moving Average. Die gleitende durchschnittliche Methode kann angepasst werden, um die Fluktuationen der Daten besser zu reflektieren Bei der gewichteten gleitenden Durchschnittsmethode werden den letzten Daten nach den folgenden Formeln Gewichte zugeordnet. Die in der Tabelle für Beispiel 10 3 gezeigten Bedarfsdaten für PM Computer Services folgen einem zunehmenden linearen Trend. Das Unternehmen möchte eine lineare Berechnung berechnen Trendlinie, um zu sehen, ob es genauer ist als die exponentielle Glättung und angepaßte exponentielle Glättungsprognosen, die in den Beispielen 10 3 und 10 entwickelt wurden. Die Werte, die für die Berechnungen der kleinsten Quadrate erforderlich sind, sind wie folgt: Unter Verwendung dieser Werte werden die Parameter für die lineare Trendlinie verwendet Werden wie folgt berechnet. Folglich ist die lineare Trendliniengleichung. Um eine Prognose für die Periode 13 zu berechnen, lass x 13 in der linearen Trendlinie. Die folgende Grafik zeigt die lineare Trendlinie im Vergleich zu den tatsächlichen Daten Die Trendlinie scheint zu reflektieren Genau die tatsächlichen daten - das heißt, um gut zu sein - und wäre daher ein gutes prognosemodell für dieses problem. Allerdings ist ein Nachteil der linearen Trendlinie, dass es nicht adju St zu einer Veränderung des Trends, da die exponentiellen Glättungsvorhersagemethoden das heißt, wird davon ausgegangen, dass alle zukünftigen Prognosen einer Geraden folgen werden. Dies beschränkt die Verwendung dieser Methode auf einen kürzeren Zeitrahmen, in dem Sie relativ sicher sein können Der Trend wird sich nicht ändern. Seasonal Adjustments. A saisonalen Muster ist eine sich wiederholende Zunahme und Abnahme der Nachfrage Viele Nachfrage Elemente zeigen saisonale Verhalten Kleidung Umsatz folgen jährlichen saisonalen Muster, mit der Nachfrage nach warmen Kleidung steigt im Herbst und Winter und sinkt im Frühjahr und Sommer als die Nachfrage nach kühleren Kleidung erhöht Nachfrage für viele Einzelhandelsartikel, einschließlich Spielzeug, Sportgeräte, Kleidung, elektronische Geräte, Schinken, Truthähne, Wein und Obst, erhöhen während der Ferienzeit Grußkarte Nachfrage steigt in Verbindung mit besonderen Tagen wie Valentinstag und Muttertag Saisonale Muster können auch auf einer monatlichen, wöchentlichen oder sogar täglichen Basis auftreten Einige Restaurants haben eine höhere Nachfrage in der e Vening als zum Mittagessen oder am Wochenende im Gegensatz zu Wochentagen Traffic - daher Umsatz - an Einkaufszentren nimmt am Freitag und Samstag. Es gibt mehrere Methoden zur Reflexion saisonalen Muster in einer Zeitreihe Prognose Wir beschreiben eine der einfacheren Methoden mit Ein saisonaler Faktor Ein saisonaler Faktor ist ein Zahlenwert, der mit der normalen Prognose multipliziert wird, um eine saisonbereinigte Prognose zu erhalten. Eine Methode zur Entwicklung einer Nachfrage nach saisonalen Faktoren besteht darin, die Nachfrage für jede Saisonperiode durch die jährliche Gesamtnachfrage zu teilen Folgende formula. Die sich daraus ergebenden saisonalen Faktoren zwischen 0 und 1 0 sind in Wirklichkeit der Anteil der jährlichen jährlichen Nachfrage, die jeder Saison zugewiesen wird. Diese saisonalen Faktoren werden mit der jährlichen prognostizierten Nachfrage multipliziert, um die prognostizierten Prognosen für jede Saison mit einer Prognose mit saisonalen Anpassungen zu erzielen. Wishbone Farms wächst Puten, um eine Fleischverarbeitungsfirma während des ganzen Jahres zu verkaufen. Allerdings ist seine Hauptsaison offensichtlich im vierten Quartal Das Jahr von Oktober bis Dezember Wishbone Farms hat die Nachfrage nach Truthühnern für die letzten drei Jahre in der folgenden Tabelle gezeigt erlebt. Weil wir drei Jahre Nachfrage haben, können wir die saisonalen Faktoren berechnen, indem wir die vierteljährliche Nachfrage für die drei Jahre teilen Durch die Gesamtnachfrage über alle drei Jahre hinweg. Weiter wollen wir die prognostizierte Nachfrage für das nächste Jahr, 2000, durch jeden der saisonalen Faktoren multiplizieren, um die prognostizierte Nachfrage für jedes Quartal zu erhalten. Um dies zu erreichen, benötigen wir eine Bedarfsprognose für 2000 In In diesem Fall, da die Nachfrage-Daten in der Tabelle scheinen, einen allgemein ansteigenden Trend zu zeigen, berechnen wir eine lineare Trendlinie für die drei Jahre der Daten in der Tabelle, um eine grobe Prognose Schätzung zu bekommen. Dann ist die Prognose für 2000 58 17, Oder 58.170 Truthühner. Mit dieser jährlichen Prognose der Nachfrage, die saisonbereinigten Prognosen, SF i, für 2000 werden diese vierteljährlichen Prognosen mit den tatsächlichen Nachfrage-Werte in der Tabelle, sie scheinen, relativ gute Prognose esti Kameraden, die sowohl die saisonalen Schwankungen der Daten als auch den allgemeinen Aufwärtstrend widerspiegeln.10-12 Wie ist die gleitende Durchschnittsmethode ähnlich der exponentiellen Glättung.10-13 Welche Wirkung auf das exponentielle Glättungsmodell wird die Glättungskonstante erhöhen.10-14 Wie unterscheidet sich die exponentielle Glättung von der exponentiellen Glättung.10-15 Was bestimmt die Wahl der Glättungskonstante für den Trend in einem angepassten exponentiellen Glättungsmodell.10-16 In den Kapitelbeispielen für Zeitreihenmethoden wurde immer die Startvorhersage angenommen Das gleiche wie die tatsächliche Nachfrage in der ersten Periode Schlagen Sie andere Möglichkeiten vor, dass die Startprognose im eigentlichen Gebrauch abgeleitet werden könnte.10-17 Wie unterscheidet sich das lineare Trendlinien-Prognosemodell von einem linearen Regressionsmodell für die Prognose.10-18 Von der Zeitreihe Modelle in diesem Kapitel, einschließlich der gleitenden durchschnittlichen und gewichteten gleitenden Durchschnitt, exponentielle Glättung und angepasst exponentielle Glättung und lineare Trendlinie, die Sie co Nsider das Beste Warum.10-19 Welche Vorteile hat die optimale Glättung über eine lineare Trendlinie für die prognostizierte Nachfrage, die einen Trend aufweist.4 KB Kahn und JT Mentzer, Prognose in Consumer und Industrial Markets, The Journal of Business Forecasting 14, Nr 2 Sommer 1995 21-28.Linear Regressionsanalyse ist die am weitesten verbreitete aller statistischen Techniken ist es die Untersuchung der linearen additiven Beziehungen zwischen den Variablen Let Y bezeichnen die abhängige Variable, deren Werte Sie vorhersagen möchten, und lassen X 1, X k bezeichnen Die unabhängigen Variablen, aus denen Sie es vorherzusagen wünschen, mit dem Wert der Variablen X i in der Periode t oder in der Zeile t des Datensatzes, der mit X bezeichnet wird. Dann ist die Gleichung zur Berechnung des vorhergesagten Wertes von Y t. This-Formel hat die Eigenschaft, dass die Vorhersage für Y eine geradlinige Funktion von jeder der X-Variablen ist, wobei die anderen fixiert sind und die Beiträge von verschiedenen X-Variablen zu den Vorhersagen additiv sind Die Steigungen ihrer individuellen, Linienbeziehungen mit Y sind die Konstanten b 1 b 2, bk die sogenannten Koeffizienten der Variablen Das heißt, bi ist die Änderung des vorhergesagten Wertes von Y pro Veränderungseinheit in X i andere Dinge gleich Die zusätzliche Konstante b 0 das so genannte Intercept ist die Vorhersage, dass das Modell machen würde, wenn alle X s null wäre, wenn das möglich ist. Die Koeffizienten und der Intercept werden durch die kleinsten Quadrate geschätzt, dh sie setzen sie gleich den eindeutigen Werten, die die Summe der quadratischen Fehler minimieren Die Stichprobe von Daten, auf die das Modell eingepasst wird Und die Vorhersagefehler des Modells werden typischerweise als unabhängig und identisch normal verteilt angenommen. Das erste, was Sie über lineare Regression wissen sollten, ist, wie die seltsame Begriffsregression auf Modelle wie angewendet wurde Dies wurde zuerst von einem Wissenschaftler des 19. Jahrhunderts studiert, Sir Francis Galton Galton war ein selbstgelehrter Naturforscher, Anthropologe, Astronom und Statistiker - und ein echter Indiana Jones Charakter Er war berühmt für seine Erkundungen, und er schrieb ein Bestseller-Buch, wie man in der Wildnis mit dem Titel "Die Kunst der Reise-Verschiebungen und Vorrichtungen, die in wilden Orten, und seine Fortsetzung, die Kunst des Rough Travel von der praktischen bis zum eigentümlichen Sie sind immer noch im Druck und werden immer noch als nützliche Ressourcen angesehen. Sie bieten viele praktische Hinweise für den lebendigen Aufenthalt - wie zum Beispiel die Speerwunden zu behandeln oder Ihr Pferd aus dem Treibsand zu entnehmen - und das Konzept des Schlafsacks in die westliche Welt einzuführen. Klicken Sie auf Diese Bilder für weitere Details. Galton war ein Pionier in der Anwendung von statistischen Methoden, um Messungen in vielen Zweigen der Wissenschaft, und bei der Untersuchung von Daten über relative Größen der Eltern und ihre Nachkommen in verschiedenen Arten von Pflanzen und Tieren, beobachtete er das folgende Phänomen a Überdurchschnittliches Elternteil neigt dazu, ein überdurchschnittliches Kind zu produzieren, aber das Kind ist wahrscheinlich weniger groß als das Elternteil in Bezug auf seine relative Position innerhalb seiner eigenen generatio N Wenn also die Größe des Elternteils x Standardabweichungen vom Mittelwert innerhalb seiner eigenen Generation ist, dann sollten Sie voraussagen, dass die Größe des Kindes rx r mal x Standardabweichungen vom Mittelwert innerhalb der Menge der Kinder ist Eltern, wo r ist eine Zahl kleiner als 1 in Größe r ist, was wird unten definiert als die Korrelation zwischen der Größe des Elternteils und die Größe des Kindes Das gleiche gilt für praktisch jede physikalische Messung und im Falle von Menschen, Die meisten Messungen der kognitiven und körperlichen Fähigkeiten, die an den Eltern und ihren Nachkommen durchgeführt werden können Hier ist das erste veröffentlichte Bild einer Regressionslinie, die diesen Effekt veranschaulicht, aus einer Vorlesung, die von Galton im Jahre 1877 vorgestellt wurde. Das R-Symbol auf diesem Diagramm, dessen Wert 0 33 ist Bezeichnet den Steigungskoeffizienten, nicht die Korrelation, obwohl die beiden gleich sind, wenn beide Populationen die gleiche Standardabweichung haben, wie unten gezeigt wird. Galton nannte dieses Phänomen eine Regression zur Mittelmäßigkeit, die in mod Ern Begriffe ist eine Regression zum Mittel Zu einem na-Beobachter könnte dies darauf hindeuten, dass spätere Generationen weniger Variabilität - buchstäblich mehr Mittelmäßigkeit - als frühere ausstellen werden, aber das ist nicht der Fall Es ist ein rein statistisches Phänomen Ist genau so die gleiche Größe wie die Eltern in relativen Begriffen dh, es sei denn, die Korrelation ist genau gleich 1, die Vorhersagen müssen auf den Mittelwert unabhängig von der Biologie zurückfallen, wenn der mittlere quadratische Fehler minimiert werden soll. Zurück zum Anfang der Seite Ist eine unausweichliche Tatsache des Lebens Ihre Kinder können erwartet werden, um weniger außergewöhnlich für besser oder schlechter als Sie sind Ihre Gäste auf eine Abschlussprüfung in einem Kurs kann erwartet werden, um weniger gut oder schlecht als Ihre Gäste auf der midterm Prüfung, relativ zu sein Der Rest der Klasse Ein Baseball-Spieler s Batting Durchschnitt in der zweiten Hälfte der Saison kann erwartet werden, um näher an den Mittelwert für alle Spieler als seine Batting Durchschnitt in der ersten Hälfte der Saison Und so weiter Das Schlüsselwort hier Wird erwartet, das bedeutet nicht, dass es sicher ist, dass eine Regression auf den Mittelwert stattfinden wird, aber das ist der Weg zu wetten. Wir haben bereits einen Vorschlag von Regression-to-the-mean in einigen der Zeitreihen-Prognose-Modelle, die wir studiert haben gesehen Plots von Prognosen neigen dazu, glatter zu sein - sie weisen weniger Variabilität auf - als die Plots der ursprünglichen Daten Dies gilt nicht für zufällige Wandermodelle, aber es gilt allgemein für gleitende Durchschnittsmodelle und andere Modelle, die ihre Prognosen abdecken Mehr als eine vergangene Beobachtung. Die intuitive Erklärung für den Regressionseffekt ist einfach, was wir vorhersagen wollen, besteht in der Regel aus einem vorhersagbaren Komponentensignal und einem statistisch unabhängigen unvorhersehbaren Komponentenrauschen. Das Beste, was wir hoffen können, ist, nur diesen Teil vorherzusagen Die Variabilität, die auf das Signal zurückzuführen ist. Daher werden unsere Prognosen dazu neigen, weniger Variabilität zu zeigen als die tatsächlichen Werte, was eine Regression auf den Mittelwert bedeutet. Eine andere Möglichkeit, an den Regressionseffekt zu denken, ist im Begriff S der Auswahl Bias Im Allgemeinen eine Spieler s Leistung über einen bestimmten Zeitraum kann auf eine Kombination von Geschick und Glück zugeschrieben werden Angenommen, wir wählen eine Probe von professionellen Athleten, deren Leistung war viel besser als der Durchschnitt oder Studenten, deren Noten waren viel besser als Durchschnitt in der ersten Jahreshälfte Die Tatsache, dass sie in der ersten Jahreshälfte so gut gemacht haben, macht es wahrscheinlich, dass sowohl ihre Geschicklichkeit als auch ihr Glück in dieser Zeit besser als der Durchschnitt waren. In der zweiten Jahreshälfte können wir sie erwarten Gleichermaßen geschickt zu sein, aber wir sollten nicht erwarten, dass sie gleichermaßen glücklich sind. So sollten wir voraussagen, dass in der zweiten Hälfte ihre Aufführung dem Mittel näher kommen wird. Inzwischen waren Spieler, deren Leistung in der ersten Halbzeit nur durchschnittlich durchschnittlich war, wahrscheinlich Geschick und Glücksarbeit In entgegengesetzte Richtungen für sie Wir sollten daher erwarten, dass ihre Leistung in der zweiten Hälfte von dem Mittel in die eine oder andere Richtung weggehen wird, da wir einen anderen unabhängigen Test erhalten Ihre Fähigkeiten Wir wissen nicht, in welche Richtung sie sich bewegen werden, aber auch für sie sollten wir voraussagen, dass ihre zweite Halbperformance näher an der Mittelwert als ihre erste Halbperformance sein wird. Allerdings sollte die tatsächliche Leistung der Spieler erwartet werden Eine ebenso große Abweichung in der zweiten Hälfte des Jahres wie in der ersten Hälfte, weil es nur aus einer Umverteilung von unabhängig zufälligem Glück unter den Spielern mit der gleichen Verteilung der Fähigkeit wie vorher resultiert. Eine gute Diskussion der Regression zum Mittel in der breiteren Kontext der sozialwissenschaftlichen Forschung finden Sie hier Zurück zum Seitenanfang. Justifizierung für Regressionsannahmen. Warum sollten wir davon ausgehen, dass die Beziehungen zwischen den Variablen linear sind. Weil lineare Beziehungen die einfachsten nicht-trivialen Beziehungen sind, die man sich vorstellen kann, also am einfachsten zu arbeiten Mit, und. Weil die wahren Beziehungen zwischen unseren Variablen sind oft mindestens annähernd linear über den Bereich der Werte, die von Interesse sind Zu uns, und. Auch wenn sie nicht sind, können wir die Variablen oft so umwandeln, dass wir die Beziehungen linearisieren. Dies ist eine starke Annahme, und der erste Schritt in der Regressionsmodellierung sollte sein, um Scatterplots der Variablen zu betrachten und Im Falle von Zeitreihen-Daten, Plots der Variablen vs Zeit, um sicherzustellen, dass es vernünftig a priori Und nach der Montage eines Modells, Plots der Fehler sollte untersucht werden, um zu sehen, ob es unerklärliche nichtlineare Muster Dies ist besonders wichtig, wenn die Ziel ist es, Vorhersagen für Szenarien außerhalb der Reichweite der historischen Daten zu machen, wo Abweichungen von der perfekten Linearität wahrscheinlich die größte Wirkung haben werden Wenn Sie Beweise für nichtlineare Beziehungen sehen, ist es möglich, wenn auch nicht garantiert, dass Transformationen von Variablen sie ausrichten werden Ein Weg, der nützliche Schlussfolgerungen und Vorhersagen über lineare Regression geben wird Zurück zum Anfang der Seite. Und warum sollten wir davon ausgehen, dass die Auswirkungen der verschiedenen unabhängigen Variablen auf die expec Wert der abhängigen Variablen sind additiv Dies ist eine sehr starke Annahme, stärker als die meisten Menschen erkennen Es bedeutet, dass die Randwirkung einer unabhängigen Variablen dh ihr Steigungskoeffizient nicht von den aktuellen Werten anderer unabhängiger Variablen abhängt. Aber warum sollte es nicht Es ist denkbar, dass eine unabhängige Variable die Wirkung eines anderen verstärken könnte oder dass ihre Wirkung im Laufe der Zeit systematisch variieren kann. In einem multiplen Regressionsmodell misst der geschätzte Koeffizient einer gegebenen unabhängigen Variablen ihren Effekt, während er für die Anwesenheit der anderen kontrolliert , Die Art und Weise, in der das Controlling durchgeführt wird, ist extrem einfachere Vielfache von anderen Variablen werden nur hinzugefügt oder subtrahiert. Viele Benutzer werfen nur viele unabhängige Variablen in das Modell, ohne sorgfältig über dieses Problem zu denken, als ob ihre Software automatisch herausfinden, wie genau Sie sind verwandt Es gewann t Auch automatische Modell-Auswahl-Methoden zB schrittweise Regre Sie verlangen, dass Sie ein gutes Verständnis für Ihre eigenen Daten haben und eine Führungshand in der Analyse verwenden. Sie arbeiten nur mit den Variablen, die sie erhalten, in der Form, dass sie gegeben sind, und dann sehen sie nur nach linearen, additiven Mustern unter Sie im Kontext von einander Ein Regressionsmodell geht nicht nur davon aus, dass Y eine Funktion des Xs ist. Es geht davon aus, dass es eine ganz besondere Art von Funktion des Xs ist. Eine gängige Praxis besteht darin, unabhängige Variablen einzuschließen, deren prädiktive Effekte logisch sind Kann nicht additiv sein, sagen, einige, die Summen sind und andere, die Raten oder Prozentsätze sind Manchmal kann dies durch lokale First-Order-Approximation Argumente rationalisiert werden, und manchmal kann es t. You müssen die relevanten Daten zu sammeln, zu verstehen, was es misst, Reinigen Sie es, wenn nötig, führen Sie eine deskriptive Analyse durch, um nach Muster zu suchen, bevor Sie irgendwelche Modelle anpassen und die Diagnosetests von Modellannahmen nachher studieren, insbesondere Statistiken und Plots der Fehler Versuchen, die angemessene ökonomische oder physikalische Argumentation anzuwenden, um festzustellen, ob eine additive Vorhersagegleichung sinnvoll ist. Auch hier ist es möglich, aber nicht garantiert, dass Transformationen von Variablen oder die Einbeziehung von Interaktionsbegriffen ihre Effekte in eine additive Form trennen können, wenn dies nicht der Fall ist Haben eine solche Form zu beginnen, aber das erfordert einige Gedanken und Anstrengungen auf deiner Seite Zurück zum Seitenanfang. Und warum sollten wir davon ausgehen, dass die Fehler der linearen Modelle unabhängig und identisch normal verteilt sind.1 Diese Annahme wird oft durch Beschwerde gerechtfertigt Der zentrale Limit Theorem der Statistik, der besagt, dass die Summe oder der Durchschnitt einer ausreichend großen Anzahl von unabhängigen Zufallsvariablen - unabhängig von ihren individuellen Verteilungen - einer Normalverteilung angehört. Viele Daten in Wirtschaft und Wirtschaft und Ingenieurwesen und Naturwissenschaften erhalten Hinzufügen oder Mitteln von numerischen Messungen, die an vielen verschiedenen Personen oder Produkten oder Orten oder Zeitintern durchgeführt werden Rvals Soweit die Aktivitäten, die die Messungen erzeugen, etwas zufällig und etwas unabhängig auftreten können, könnten wir erwarten, dass die Schwankungen der Summen oder Mittelwerte etwas normal verteilt sind.2 Es ist wiederum mathematisch praktisch, dass es die optimalen Koeffizientenschätzungen für ein lineares Modell gibt Sind diejenigen, die den mittleren quadratischen Fehler minimieren, die leicht berechnet werden können, und es rechtfertigt die Verwendung einer Vielzahl von statistischen Tests auf der Grundlage der normalen Familie der Verteilungen Diese Familie umfasst die t-Verteilung, die F-Verteilung und die Chi-Quadrat-Verteilung.3 Auch wenn der wahre Fehlerprozess in Bezug auf die ursprünglichen Einheiten der Daten nicht normal ist, kann es möglich sein, die Daten so zu transformieren, dass die Vorhersagefehler Ihres Modells annähernd normal sind. Aber auch hier muss Vorsicht geübt werden, auch wenn die unerklärlichen Variationen In der abhängigen variablen sind annähernd normal verteilt, es ist nicht garantiert, dass sie auch identisch normal verteilen werden Für alle Werte der unabhängigen Variablen Vielleicht sind die unerklärlichen Variationen unter einigen Bedingungen größer als andere, eine Bedingung, die als Heterosedastizität bekannt ist. Wenn zum Beispiel die abhängige Variable aus täglichen oder monatlichen Gesamtverkäufen besteht, gibt es wahrscheinlich signifikante Wochentagsmuster Oder saisonale Muster In solchen Fällen wird die Abweichung der Gesamtsumme an Tagen oder in Jahreszeiten mit größerer Geschäftstätigkeit größer sein - eine weitere Konsequenz des zentralen Grenzsatzes Variable Transformationen wie Protokollierung und saisonale Anpassung werden oft verwendet, um mit diesem Problem umzugehen Ist auch nicht garantiert, dass die zufälligen Variationen statistisch unabhängig sind. Dies ist eine besonders wichtige Frage, wenn die Daten aus Zeitreihen bestehen, wenn das Modell nicht korrekt spezifiziert ist, ist es möglich, dass aufeinanderfolgende Fehler oder Fehler, die durch eine andere Anzahl von Perioden getrennt sind, Eine systematische Tendenz, das gleiche Zeichen oder eine systematische Tendenz zu haben, entgegengesetzte Zeichen zu haben, ein Phänomen Nicht als Autokorrelation oder serielle Korrelation bekannt. Ein sehr wichtiger Sonderfall ist der von Aktienkursdaten, in denen sich die prozentualen Änderungen anstatt der absoluten Änderungen in der Regel verteilt haben. Dies bedeutet, dass über mäßige bis große Zeitskalen die Bestandsbewegungen lognorm verteilt sind Als normal verteilt Eine Log-Transformation wird typischerweise auf historische Aktienkursdaten angewendet, wenn man Wachstum und Volatilität untersucht. Vorsicht, obwohl einfache Regressionsmodelle oft an historische Aktienrenditen angepasst sind, um Betas zu schätzen, die Indikatoren für relatives Risiko im Rahmen eines diversifizierten Portfolios sind Nicht empfehlen, dass Sie Regression verwenden, um zu versuchen, zukünftige Aktienrenditen vorherzusagen Siehe die geometrische zufällige Spaziergang Seite statt. Sie ​​könnten immer noch denken, dass Variationen in den Werten von Portfolios von Aktien neigen dazu, normal verteilt werden, aufgrund der zentralen Limit Theorem, Aber der zentrale Grenzsatz ist eigentlich eher langsam, um auf dem lognormalen Bezirk zu beißen Ibution, weil es so asymmetrisch lang-tailed ist Eine Summe von 10 oder 20 unabhängig und identisch lognorm verteilte Variablen hat eine Verteilung, die noch ganz nah an lognormal ist Wenn Sie das nicht glauben, versuchen Sie es mit der Monte-Carlo-Simulation zu testen, werden Sie überrascht sein War. Wenn die Annahmen der linearen Regression linear, additive Beziehungen mit iid normal verteilten Fehlern sind so stark, ist es sehr wichtig, ihre Gültigkeit bei der Montage von Modellen zu testen, ein Thema, das ausführlicher auf der Test-Modell-Annahmen Seite und aufmerksam diskutiert werden Auf die Möglichkeit, dass Sie vielleicht mehr oder bessere Daten benötigen, um Ihre Ziele zu erreichen Sie können t etwas aus dem Nichts bekommen Allzu oft, na ve Benutzer der Regressionsanalyse sehen es als eine Black Box, die automatisch jede gegebene Variable von anderen Variablen vorhersagen kann Werden in sie eingegeben, wenn in der Tat ein Regressionsmodell ist eine ganz besondere und sehr transparente Art von Vorhersage-Box seine Ausgabe enthält keine weiteren Informationen als ist Durch seine Eingaben zur Verfügung gestellt, und seine innere Mechanismus muss mit der Realität in jeder Situation verglichen werden, wo es angewendet wird Zurück zum Anfang der Seite. Korrelation und einfache Regressionsformeln. Ein Variable ist definitionsgemäß eine Menge, die von einer Messung zu variieren kann Eine andere in Situationen, in denen verschiedene Proben aus einer Population entnommen werden oder Beobachtungen zu verschiedenen Zeitpunkten gemacht werden. In der Anpassung statistischer Modelle, in denen einige Variablen verwendet werden, um andere vorherzusagen, ist das, was wir hoffen, dass die verschiedenen Variablen nicht unabhängig voneinander variieren Statistischer Sinn, aber dass sie dazu neigen, zusammen zu variieren. Insbesondere bei der Anpassung von linearen Modellen, hoffen wir, dass eine Variable sagen, Y variiert als eine lineare Funktion einer anderen Variablen sagen, X Mit anderen Worten, wenn alle anderen Möglicherweise relevante Variablen könnten fix gehalten werden, wir würden hoffen, den Graphen von Y gegen X zu finden, um eine gerade Linie abgesehen von den unvermeidlichen zufälligen Fehlern oder Rauschen zu sein. Ein Maß für die absolute Menge an Varia Die Variabilität in der Variablen ist natürlich ihre Abweichung, die als ihre durchschnittliche quadratische Abweichung von ihrem eigenen Mittelpunkt definiert ist. Äquivalent können wir die Variabilität in Bezug auf die Standardabweichung messen, die als Quadratwurzel der Varianz definiert ist. Die Standardabweichung hat den Vorteil, dass sie es hat Wird in den gleichen Einheiten wie die ursprüngliche Variable, anstatt quadrierte Einheiten gemessen. Unsere Aufgabe bei der Vorhersage von Y könnte als das beschrieben werden, um einige oder alle seiner Varianz zu erklären - dh warum oder unter welchen Bedingungen es von seinem Mittel abweicht. Warum Ist es nicht konstant Das heißt, wir möchten in der Lage sein, das naive prädiktive Modell t CONSTANT zu verbessern, in dem der beste Wert für die Konstante vermutlich das historische Mittel von Y ist. Genauer gesagt, hoffen wir, ein Modell zu finden, dessen Vorhersagefehler Sind kleiner, in einem mittleren quadratischen Sinn, als die Abweichungen der ursprünglichen Variablen von ihrem Mittel. Bei der Verwendung von linearen Modellen für die Vorhersage, stellt sich heraus, sehr praktisch, dass die einzige Statistik von Interesse mindestens f Oder Zwecke der Schätzung von Koeffizienten zur Minimierung des quadratischen Fehlers sind der Mittelwert und die Varianz jeder Variablen und der Korrelationskoeffizient zwischen jedem Paar von Variablen. Der Korrelationskoeffizient zwischen X und Y wird üblicherweise mit r XY bezeichnet und misst die Stärke der linearen Beziehung zwischen Sie auf einer relativen, dh einheitlichen Skala von -1 bis 1 Das heißt, es misst das Ausmaß, in dem ein lineares Modell verwendet werden kann, um die Abweichung einer Variablen von ihrer mittleren gegebenen Erkenntnis der anderen s Abweichung von ihrem Mittel an demselben vorherzusagen Der Korrelationskoeffizient wird am einfachsten berechnet, wenn wir zuerst die Variablen standardisieren, was bedeutet, sie in Einheiten von Standardabweichungen von dem Mittelwert zu verwandeln, wobei die Populationsstandardabweichung anstelle der Probenstandardabweichung verwendet wird Die Formel hat n anstatt n-1 im Nenner, wobei n die Stichprobengröße ist. Die standardisierte Version von X wird hier mit X und deren Wert in Periode t bezeichnet Ist in Excel-Notation definiert, da STDEV P die Excel-Funktion für die Populationsstandardabweichung ist. Hier und anderswo verwende ich Excel-Funktionen und nicht herkömmliche Mathematik-Symbole in einigen Formeln, um zu veranschaulichen, wie die Berechnungen auf einer Tabellenkalkulation durchgeführt werden sollen Nehmen wir an, dass AVERAGE X 20 und STDEV PX 5 Wenn X t 25, dann gilt X t 1, wenn X t 10 dann X t -2 und so weiter Y den ähnlich standardisierten Wert von Y bezeichnen. Der Korrelationskoeffizient Ist gleich dem durchschnittlichen Produkt der standardisierten Werte der beiden Variablen innerhalb der gegebenen Stichprobe von n Beobachtungen. Wenn also z. B. X und Y in Spalten auf einer Kalkulationstabelle gespeichert sind, können Sie die Funktionen AVERAGE und STDEV P berechnen their averages and population standard deviations, then you can create two new columns in which the values of X and Y in each row are computed according to the formula above Then create a third new column in which X is multiplied by Y in every row The average of the values in the last column is the correlation between X and Y Of course, in Excel, you can just use the formula CORREL X, Y to calculate a correlation coefficient, where X and Y denote the cell ranges of the data for the variables Note in some situations it might be of interest to standardize the data relative to the sample standard deviation, which is STDEV S in Excel, but the population statistic is the correct one to use in the formula above Return to top of page. If the two variables tend to vary on the same sides of their respective means at the same time, then the average product of their deviations and hence the correlation between them will be positive since the product of two numbers with the same sign is positive Conversely, if they tend to vary on opposite sides of their respective means at the same time, their correlation will be negative If they vary independently with respect to their means--that is, if one is equally likely to be above or below its mean regardless of what t he other is doing--then the correlation will be zero And if Y is an exact linear function of X, then either Y t X t for all t or else Y t - X t for all t in which case the formula for the correlation reduces to 1 or -1.The correlation coefficient can be said to measure the strength of the linear relationship between Y and X for the following reason The linear equation for predicting Y from X that minimizes mean squared error is simply. Thus, if X is observed to be 1 standard deviation above its own mean, then we should predict that Y will be r XY standard deviations above its own mean if X is 2 standard deviations below its own mean, then we should be predict that Y will be 2 r XY standard deviations below its own mean, and so on. In graphical terms, this means that, on a scatterplot of Y versus X the line for predicting Y from X so as to minimize mean squared error is the line that passes through the origin and has slope r XY This fact is not supposed to be obvious, but it is easily prov ed by elementary differential calculus. Here is an example on a scatterplot of Y versus X the visual axis of symmetry is a line that passes through the origin and whose slope is equal to 1 i e a 45-degree line , which is the gray dashed line on the plot below It passes through the origin because the means of both standardized variables are zero, and its slope is equal to 1 because their standard deviations are both equal to 1 The latter fact means that the points are equally spread out horizontally and vertically in terms of mean squared deviations from zero, which forces their pattern to appear roughly symmetric around the 45-degree line if the relationship between the variables really is linear However, the gray dashed line is the not the best line to use for predicting the value of Y for a given value of X The best line for predicting Y from X has a slope of less than 1 it regresses toward the X axis The regression line is shown in red, and its slope is the correlation between X and Y which is 0 46 in this case Why is this true Because, that s the way to bet if you want to minimize the mean squared error measured in the Y direction If instead you wanted to predict X from Y so as to minimize mean squared error measured in the X direction, the line would regress in the other direction relative to the 45-degree line, and by exactly the same amount. If we want to obtain the linear regression equation for predicting Y from X in unstandardized terms we just need to substitute the formulas for the standardized values in the preceding equation, which then becomes. By rearranging this equation and collecting constant terms, we obtain. is the estimated slope of the regression line, and. is the estimated Y - intercept of the line. Notice that, as we claimed earlier, the coefficients in the linear equation for predicting Y from X depend only on the means and standard deviations of X and Y and on their coefficient of correlation. The additional formulas that are needed to compute sta ndard errors t-statistics and P-values statistics that measure the precision and significance of the estimated coefficients are given in the notes on mathematics of simple regression and also illustrated in this spreadsheet file. Perfect positive correlation r XY 1 or perfect negative correlation r XY -1 is only obtained if one variable is an exact linear function of the other, without error, in which case they aren t really different variables at all. In general we find less-than-perfect correlation, which is to say, we find that r XY is less than 1 in absolute value Therefore our prediction for Y is typically smaller in absolute value than our observed value for X That is, the prediction for Y is always closer to its own mean, in units of its own standard deviation, than X was observed to be, which is Galton s phenomenon of regression to the mean. So, the technical explanation of the regression-to-the-mean effect hinges on two mathematical facts i the correlation coefficient, calculated in the manner described above, happens to be the coefficient that minimizes the squared error in predicting Y from X and ii the correlation coefficient is never larger than 1 in absolute value, and it is only equal to 1 when Y is an exact noiseless linear function of X. The term regression has stuck and has even mutated from an intransitive verb into a transitive one since Galton s time We don t merely say that the predictions for Y regress to the mean --we now say that we are regressing Y on X when we estimate a linear equation for predicting Y from X and we refer to X as a regressor in this case. When we have fitted a linear regression model, we can compute the variance of its errors and compare this to the variance of the dependent variable the latter being the error variance of an intercept-only model The relative amount by which the regression model s error variance is less than the variance of the dependent variable is referred to as the fraction of the variance that was explained by the independent variable s For example, if the error variance is 20 less than the original variance, we say we have explained 20 of the variance. It turns out that in a simple regression model, the fraction of variance explained is precisely the square of the correlation coefficient --i e the square of r Hence, the fraction-of-variance-explained has come to be known as R-squared The interpretation and use of R-squared are discussed in more detail here. In a multiple regression model one with two or more X variables , there are many correlation coefficients that must be computed, in addition to all the means and variances For example, we must consider the correlation between each X variable and the Y variable, and also the correlation between each pair of X variables In this case, it still turns out that the model coefficients and the fraction-of-variance-explained statistic can be computed entirely from knowledge of the means, standard deviations, and correlation coefficients among t he variables--but the computations are no longer easy We will leave those details to the computer Return to top of page. Go on to a nearby topic.

No comments:

Post a Comment