Objectif: Contrôler l'aléatoire Les courbes d'autocorrélation (Box et Jenkins, p. 28-32) sont un outil couramment utilisé pour vérifier le caractère aléatoire dans un ensemble de données. Ce caractère aléatoire est déterminé en calculant des autocorrélations pour des valeurs de données à différents décalages temporels. Si elles sont aléatoires, ces autocorrélations devraient être proches de zéro pour toutes les séparations temporelles. Si elle n'est pas aléatoire, une ou plusieurs des autocorrélations seront significativement non nulles. De plus, les diagrammes d'autocorrélation sont utilisés dans le modèle d'identification des modèles auto-régressifs de la boîte-Jenkins, modèles de séries temporelles mobiles. L'autocorrélation est une seule mesure de l'aléa Notez que non corrélée ne signifie pas nécessairement aléatoire. Les données qui ont une autocorrélation significative n'est pas aléatoire. Cependant, les données qui ne montrent pas d'autocorrélation significative peuvent encore présenter un caractère non aléatoire d'autres façons. L'autocorrélation n'est qu'une mesure du hasard. Dans le contexte de la validation de modèle (qui est le type primaire de hasard que nous décrivons dans le Manuel), la vérification de l'autocorrélation est généralement un test de hasard suffisant puisque les résidus d'un mauvais modèle d'ajustement ont tendance à afficher un aléatoire non subtil. Cependant, certaines applications nécessitent une détermination plus rigoureuse du caractère aléatoire. Dans ces cas, une batterie de tests, qui peuvent inclure la vérification de l'autocorrélation, sont appliqués puisque les données peuvent être non aléatoires de nombreuses façons différentes et souvent subtiles. Un exemple de l'endroit où un contrôle plus rigoureux pour le hasard est nécessaire serait dans le test des générateurs de nombres aléatoires. Exemple de tracé: Les autocorrélations devraient être proches de zéro pour le hasard. Ce n'est pas le cas dans cet exemple et donc l'hypothèse de hasard échoue. Cet exemple de graphique d'autocorrélation montre que la série chronologique n'est pas aléatoire, mais présente plutôt un degré élevé d'autocorrélation entre des observations adjacentes et presque adjacentes. Définition: r (h) versus h Les tracés d'autocorrélation sont formés par l'axe vertical: Coefficient d'autocorrélation où C h est la fonction d'autocovariance et C 0 est la fonction de variance Notez que R h est compris entre -1 et 1. Notez que certaines sources peuvent utiliser le Formule suivante pour la fonction d'autocovariance Bien que cette définition ait moins de biais, la formulation (1 N) présente certaines propriétés statistiques souhaitables et est la forme la plus couramment utilisée dans la littérature statistique. Voir les pages 20 et 49-50 dans Chatfield pour plus de détails. Axe horizontal: Décalage h (h 1, 2, 3.) La ligne ci-dessus contient également plusieurs lignes de référence horizontales. La ligne médiane est à zéro. Les quatre autres lignes sont 95 et 99 bandes de confiance. Notez qu'il existe deux formules distinctes pour générer les bandes de confiance. Si le graphe d'autocorrélation est utilisé pour tester le caractère aléatoire (c'est-à-dire qu'il n'y a pas de dépendance temporelle dans les données), on recommande la formule suivante: où N est la taille de l'échantillon, z est la fonction de distribution cumulative de la distribution normale normale et ) Est le niveau de signification. Dans ce cas, les bandes de confiance ont une largeur fixe qui dépend de la taille de l'échantillon. C'est la formule qui a servi à générer les bandes de confiance dans le graphique ci-dessus. Les diagrammes d'autocorrélation sont également utilisés dans l'étape d'identification du modèle pour l'ajustement des modèles ARIMA. Dans ce cas, un modèle de moyenne mobile est supposé pour les données et les bandes de confiance suivantes doivent être générées: où k est le lag, N est la taille de l'échantillon, z est la fonction de distribution cumulative de la distribution normale standard et (alpha) est Le niveau de signification. Dans ce cas, les bandes de confiance augmentent à mesure que le décalage augmente. Le diagramme d'autocorrélation peut fournir des réponses aux questions suivantes: Les données aléatoires Est-ce une observation liée à une observation adjacente Est-ce une observation liée à une observation à deux reprises (etc.) Est la série chronologique observée le bruit blanc Est-ce que la série chronologique observée est sinusoïdale Est-ce que la série chronologique observée est autorégressive Qu'est-ce qu'un modèle approprié pour les séries temporelles observées? Le modèle est-il valable et suffisant? La formule sssqrt est-elle valide? Importance: Assurer la validité des conclusions techniques. L'aléatoire (avec le modèle fixe, la variation fixe et la distribution fixe) Des quatre hypothèses qui sous-tendent généralement tous les processus de mesure. L'hypothèse du hasard est d'une importance critique pour les trois raisons suivantes: La plupart des tests statistiques standard dépendent du caractère aléatoire. La validité des conclusions du test est directement liée à la validité de l'hypothèse de randomisation. De nombreuses formules statistiques couramment utilisées dépendent de l'hypothèse de randomisation, la formule la plus courante étant la formule pour déterminer l'écart-type de la moyenne de l'échantillon: où s est l'écart-type des données. Bien que fortement utilisé, les résultats de l'utilisation de cette formule n'ont aucune valeur à moins que l'hypothèse de l'aléatoire tient. Pour les données univariées, le modèle par défaut est Si les données ne sont pas aléatoires, ce modèle est incorrect et non valide, et les estimations pour les paramètres (comme la constante) deviennent non-sens et non valides. En bref, si l'analyste ne vérifie pas le caractère aléatoire, la validité de nombreuses conclusions statistiques devient suspecte. Dans la partie 1, nous avons considéré le modèle autorégressif d'ordre p, également connu sous le nom de AR (p) maquette. Nous l'avons présenté comme une extension du modèle de marche aléatoire dans une tentative d'expliquer la corrélation série supplémentaire dans les séries chronologiques financières. En fin de compte, nous avons réalisé qu'il n'était pas suffisamment souple pour saisir véritablement toute l'autocorrélation des cours de clôture d'Amazon Inc. (AMZN) et de SampP500 US Equity Index. La raison principale pour cela est que ces deux actifs sont conditionnellement hétéroscédastic. Ce qui signifie qu'ils sont non stationnaires et ont des périodes de variance variable ou de regroupement de volatilité, ce qui n'est pas pris en compte par le modèle AR (p). Dans les futurs articles, nous finirons par construire les modèles de la moyenne mobile intégrée (ARIMA), ainsi que les modèles hétéroscédastiques conditionnels des familles ARCH et GARCH. Ces modèles nous fourniront nos premières tentatives réalistes de prévision des prix des actifs. Dans cet article, cependant, nous allons introduire la moyenne mobile de l'ordre q modèle, connu sous le nom MA (q). Il s'agit d'une composante du modèle ARMA plus général et, en tant que tel, nous devons le comprendre avant d'aller plus loin. Je vous recommande vivement de lire les articles précédents de la collection Analyse des séries chronologiques si vous ne l'avez pas fait. Ils peuvent tous être trouvés ici. Moyenne mobile (MA) Modèles d'ordre q Un modèle de moyenne mobile est semblable à un modèle autorégressif, sauf qu'au lieu d'être une combinaison linéaire de valeurs chronologiques passées, il s'agit d'une combinaison linéaire des termes de bruit blanc passés. Intuitivement, cela signifie que le modèle MA voit de tels chocs de bruit blanc aléatoire directement à chaque valeur courante du modèle. Ceci est en contraste avec un modèle AR (p), où les chocs de bruit blanc ne sont vus que de façon indirecte. Via la régression sur les termes précédents de la série. Une différence essentielle est que le modèle MA ne verra jamais les q derniers chocs pour un modèle MA (q) particulier, alors que le modèle AR (p) prendra en compte tous les chocs antérieurs, bien que de façon décroissante. Définition Mathématiquement, le MA (q) est un modèle de régression linéaire et est structuré de la même façon que AR (p): Moyenne mobile Modèle d'ordre q Un modèle de série temporelle,, est un modèle de moyenne mobile d'ordre q. MA (q), si: begin xt wt bt1 w ldots betaq w end Où est le bruit blanc avec E (wt) 0 et la variance sigma2. Si nous considérons l'opérateur de décalage vers l'arrière (voir un article précédent), alors nous pouvons réécrire ce qui précède en tant que fonction phi de: begin xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Nous utiliserons le phi Dans des articles ultérieurs. Propriétés de second ordre Comme avec AR (p), la moyenne d'un processus MA (q) est nulle. Cela est facile à voir car la moyenne est simplement une somme de moyens de termes de bruit blanc, qui sont tous eux-mêmes zéro. Commencement texte enspace mux E (xt) somme E (wi) 0 fin début texte enspace sigma2w (1 bêta21 ldots beta2q) fin texte enspace rhok gauche 1 texte enspace k 0 somme bêta beta bêta bêta2 texte enspace k 1, ldots, q 0 texte Enspace k gt q fin à droite. Où beta0 1. Nous allons maintenant générer des données simulées et l'utiliser pour créer des corrélogrammes. Cela rendra la formule ci-dessus plus concrète. Simulations et corrélogrammes Commençons par un processus MA (1). Si nous fixons beta1 0.6, nous obtenons le modèle suivant: Comme pour les modèles AR (p) de l'article précédent, nous pouvons utiliser R pour simuler une telle série et ensuite tracer le corrélogramme. Puisque nous avons eu beaucoup de pratique dans la série précédente d'article d'analyse de série chronologique d'accomplir des parcelles, j'écrirai le code de R dans le plein, plutôt que le fractionnement il: La sortie est comme suit: Comme nous l'avons vu ci-dessus dans la formule pour rhok , Pour k gt q, toutes les autocorrélations doivent être nulles. Puisque q 1, nous devrions voir un pic significatif à k1, puis des pics insignifiants à la suite de cela. Cependant, en raison du biais d'échantillonnage, nous devrions nous attendre à voir 5 pics (marginalement) significatifs sur un graphique d'autocorrélation d'échantillon. C'est précisément ce que le corrélogramme nous montre dans ce cas. Nous avons un pic significatif à k1 et ensuite des pics insignifiants pour k gt 1, sauf à k4 où nous avons un pic marginalement significatif. En fait, c'est une façon utile de voir si un modèle MA (q) est approprié. En examinant le corrélogramme d'une série particulière, nous pouvons voir combien de retards séquentiels différents de zéro existent. Si q ces décalages existent alors nous pouvons légitimement essayer d'adapter un modèle MA (q) à une série particulière. Puisque nous avons des preuves à partir de nos données simulées d'un processus MA (1), allions maintenant essayer d'adapter un modèle MA (1) à nos données simulées. Malheureusement, il n'y a pas une commande ma équivalente au modèle ar autorégressif commande dans R. Au lieu de cela, nous devons utiliser la commande arima plus générale et définir les composants autorégressifs et intégrés à zéro. Nous faisons ceci en créant un 3-vecteur et en mettant à zéro les deux premières composantes (les paramètres auto - gressifs et intégrés, respectivement): Nous recevons une sortie utile de la commande arima. Tout d'abord, nous pouvons voir que le paramètre a été estimé comme chapeau 0.602, ce qui est très proche de la vraie valeur de beta1 0.6. Deuxièmement, les erreurs-types sont déjà calculées pour nous, ce qui simplifie le calcul des intervalles de confiance. Troisièmement, nous recevons une variance estimée, la log-vraisemblance et le critère d'information Akaike (nécessaire pour la comparaison de modèle). La principale différence entre arima et ar est que arima estime un terme d'interception parce qu'il ne soustrait pas la valeur moyenne de la série. Par conséquent, nous devons être prudents lors de la réalisation des prédictions à l'aide de la commande arima. Eh bien revenir à ce point plus tard. Comme une vérification rapide allait calculer les intervalles de confiance pour chapeau: Nous pouvons voir que l'intervalle de confiance 95 contient la valeur de paramètre vrai de beta1 0.6 et donc nous pouvons juger le modèle un bon ajustement. Évidemment, cela devrait être prévu puisque nous avons simulé les données en premier lieu. Comment les choses changent-elles si nous modifions le signe de beta1 à -0.6 Laissons effectuer la même analyse: La sortie est comme suit: On peut voir que à k1 nous avons un Pic dans le corrélogramme, sauf qu'il montre une corrélation négative, comme l'attendent d'un MA (1) modèle avec négatif premier coefficient. Une fois de plus tous les pics au-delà de k1 sont insignifiants. Permet d'adapter un modèle MA (1) et d'estimer le paramètre: hat -0.730, ce qui est une petite sous-estimation de beta1 -0.6. Enfin, on calcule l'intervalle de confiance: on voit que la vraie valeur de paramètre de beta1-0.6 est contenue dans l'intervalle de confiance 95, ce qui nous permet de démontrer un bon ajustement du modèle. Permet d'exécuter la même procédure pour un processus MA (3). Cette fois, nous devrions nous attendre à des pics significatifs à k in et à des pics insignifiants pour k gt 3. Nous allons utiliser les coefficients suivants: beta1 0,6, beta2 0,4 et beta 3 0,2. Permet de simuler un processus MA (3) à partir de ce modèle. Ive a augmenté le nombre d'échantillons aléatoires à 1000 dans cette simulation, ce qui rend plus facile de voir la véritable structure d'autocorrélation, au détriment de rendre la série originale plus difficile à interpréter: La sortie est la suivante: Comme prévu les trois premiers pics sont significatifs . Cependant, il en est de même de la quatrième. Mais nous pouvons légitimement suggérer que cela peut être dû à biais d'échantillonnage comme nous nous attendons à voir 5 des pics étant significative au-delà kq. Laissons maintenant un modèle MA (3) aux données pour tenter d'estimer les paramètres: Les estimations hat 0.544, hat 0.345 et hat 0.298 sont proches des vraies valeurs de beta10.6, beta20.4 et beta30.3, respectivement. Nous pouvons également produire des intervalles de confiance en utilisant les erreurs-types respectives: Dans chaque cas, les 95 intervalles de confiance contiennent la vraie valeur de paramètre et nous pouvons conclure que nous avons un bon ajustement avec notre modèle MA (3), comme on peut s'y attendre. Données financières Dans la partie 1, nous avons considéré Amazon Inc. (AMZN) et SampP500 US Equity Index. Nous avons adapté le modèle AR (p) aux deux et avons constaté que le modèle était incapable de capturer efficacement la complexité de la corrélation sérielle, en particulier dans le cast du SampP500, où les effets de mémoire longue semblent être présents. Je ne tracerai pas les diagrammes de nouveau pour les prix et l'autocorrélation, au lieu de mal vous référer au poteau précédent. Amazon Inc. (AMZN) Commençons par essayer d'adapter une sélection de modèles MA (q) à AMZN, à savoir avec q in. Comme dans la partie 1, bien utiliser quantmod pour télécharger les prix quotidiens pour AMZN, puis de les convertir en un journal retourne le flux de prix de clôture: Maintenant que nous avons le flux de retour des journaux, nous pouvons utiliser la commande arima pour s'adapter MA (1), MA (2) et MA (3) et ensuite estimer les paramètres de chacun. Pour MA (1), on a: On peut tracer les résidus des rendements des journaux journaliers et du modèle ajusté: Notons que nous avons quelques pics significatifs aux décalages k2, k11, k16 et k18, indiquant que le modèle MA (1) est Peu susceptible d'être un bon ajustement pour le comportement de l'AMZN log retour, car cela ne ressemble pas à une réalisation de bruit blanc. Essayons un modèle MA (2): Les deux estimations des coefficients bêta sont négatives. Reprenons les résidus une fois de plus: on constate qu'il y a presque auto-corrélation dans les premiers décalages. Cependant, nous avons cinq pics légèrement significatifs aux décalages k12, k16, k19, k25 et k27. Cela suggère que le modèle MA (2) capture beaucoup de l'autocorrélation, mais pas tous les effets de mémoire longue. Que diriez-vous d'un modèle MA (3) Une fois de plus, nous pouvons tracer les résidus: Le graphique des résidus MA (3) semble presque identique à celui du modèle MA (2). Cela n'est pas surprenant, tout comme l'ajout d'un nouveau paramètre à un modèle qui a apparemment expliqué beaucoup de corrélations à des décalages plus courts, mais qui n'a pas beaucoup d'effet sur les retards à plus long terme. Toute cette évidence suggère le fait qu'un modèle MA (q) est improbable d'être utile pour expliquer toute la corrélation sérielle isolément. Au moins pour AMZN. SampP500 Si vous vous rappelez, dans la partie 1, nous avons vu que la structure de retour de journalisation différenciée de premier ordre du SampP500 possédait de nombreux pics significatifs à différents décalages, courts et longs. Ceci a fourni des preuves à la fois de l'hétéroscédasticité conditionnelle (c'est-à-dire du groupement de la volatilité) et des effets de mémoire longue. Cela nous amène à conclure que le modèle AR (p) était insuffisant pour capturer toute l'autocorrélation présente. Comme nous l'avons vu ci-dessus, le modèle MA (q) était insuffisant pour saisir une corrélation sérielle supplémentaire dans les résidus du modèle ajusté à la série de prix journaliers différenciés du premier ordre. Nous allons maintenant essayer d'adapter le modèle MA (q) au SampP500. On peut se demander pourquoi nous faisons cela si nous savons qu'il est peu probable que ce soit un bon ajustement. C'est une bonne question. La réponse est que nous devons voir exactement comment il n'est pas un bon ajustement, parce que c'est le processus ultime que nous suivrons lorsque nous rencontrer des modèles beaucoup plus sophistiqués, qui sont potentiellement plus difficiles à interpréter. Commençons par obtenir les données et en les convertissant en une série différenciée de premier ordre de prix de clôture quotidienne transformés logarithmiquement comme dans l'article précédent: Nous allons maintenant adapter un modèle MA (1), MA (2) et MA (3) à La série, comme nous l'avons fait ci-dessus pour AMZN. Commençons par MA (1): Lets faire un tracé des résidus de ce modèle ajusté: Le premier pic significatif se produit à k2, mais il ya beaucoup plus à k in. Ce n'est clairement pas une réalisation de bruit blanc et donc nous devons rejeter le modèle MA (1) comme un bon potentiel pour le SampP500. La situation s'améliore avec MA (2) Encore une fois, nous allons faire un tracé des résidus de ce modèle équipé MA (2): Alors que le pic à k2 a disparu (comme nous l'espérions), on reste avec les pics significatifs à Beaucoup de retards plus longs dans les résidus. Une fois de plus, nous trouvons que le modèle MA (2) n'est pas un bon ajustement. Nous devrions nous attendre, pour le modèle MA (3), à voir moins de corrélation sérielle à k3 que pour la MA (2), mais encore une fois, nous devrions également nous attendre à aucune réduction de nouveaux décalages. Enfin, nous allons faire un tracé des résidus de ce modèle ajusté MA (3): C'est précisément ce que nous voyons dans le corrélogramme des résidus. Par conséquent, le MA (3), comme avec les autres modèles ci-dessus, n'est pas un bon ajustement pour le SampP500. Prochaines étapes Nous avons examiné maintenant en détail deux grands modèles de séries temporelles, à savoir le modèle Autogressif d'ordre p, AR (p) et ensuite Moyenne mobile d'ordre q, MA (q). Nous avons vu qu'ils sont tous deux capables d'expliquer une partie de l'autocorrélation dans les résidus des prix journaliers différenciés du premier ordre des actions et des indices, mais la volatilité et les effets de longue mémoire persistent. Il est enfin temps de tourner notre attention vers la combinaison de ces deux modèles, à savoir la moyenne mobile autorégressive d'ordre p, q, ARMA (p, q) pour voir si elle va améliorer la situation plus loin. Cependant, nous devrons attendre l'article suivant pour une discussion complète Cliquez ci-dessous pour en savoir plus. L'information contenue sur ce site web est l'opinion des auteurs individuels basée sur leur observation personnelle, leur recherche et leurs années d'expérience. L'éditeur et ses auteurs ne sont pas des conseillers en placement, des avocats, des CPA ou d'autres professionnels des services financiers enregistrés et ne rendent pas de conseils juridiques, fiscaux, comptables, de placement ou autres services professionnels. L'information offerte par ce site Web est seulement l'éducation générale. Parce que chaque situation factuelle des individus est différente, le lecteur devrait chercher son conseiller personnel. Ni l'auteur ni l'éditeur n'assument aucune responsabilité ou responsabilité pour des erreurs ou omissions et n'a aucune responsabilité ni responsabilité envers une personne ou une entité à l'égard des dommages causés ou prétendument causés directement ou indirectement par les informations contenues sur ce site. À utiliser à vos risques et périls. En outre, ce site Web peut recevoir une compensation financière des sociétés mentionnées par la publicité, les programmes d'affiliation ou autrement. Les tarifs et offres des annonceurs affichés sur ce site Web changent fréquemment, parfois sans préavis. Alors que nous nous efforçons de maintenir des informations exactes et en temps opportun, les détails de l'offre peuvent être périmés. Les visiteurs doivent donc vérifier les modalités de ces offres avant de participer à ces offres. L'auteur et son éditeur déclinent toute responsabilité quant à la mise à jour des informations et déclinent toute responsabilité concernant le contenu, les produits et les services de tiers, y compris lorsqu'ils sont accessibles par l'entremise d'hyperliens et / ou d'annonces sur ce site. RIMA signifie Autoregressive Integrated Moving Average. Univariée (vecteur unique) ARIMA est une technique de prévision qui projette les valeurs futures d'une série basée entièrement sur sa propre inertie. Sa principale application est dans le domaine de la prévision à court terme nécessitant au moins 40 points de données historiques. Il fonctionne mieux lorsque vos données présentent un modèle stable ou cohérent avec le temps avec un minimum de valeurs aberrantes. Parfois appelé Box-Jenkins (après les auteurs originaux), ARIMA est généralement supérieur aux techniques de lissage exponentiel quand les données sont raisonnablement longues et la corrélation entre les observations passées est stable. Si les données sont courtes ou très volatiles, une méthode de lissage peut avoir un meilleur rendement. Si vous n'avez pas au moins 38 points de données, vous devriez considérer une autre méthode que ARIMA. La première étape de l'application de la méthodologie ARIMA est de vérifier la stationnarité. La stationnarité implique que la série reste à un niveau relativement constant dans le temps. Si une tendance existe, comme dans la plupart des applications économiques ou commerciales, vos données ne sont PAS stationnaires. Les données devraient également montrer une variance constante de ses fluctuations dans le temps. Cela se voit facilement avec une série qui est fortement saisonnière et croissant à un rythme plus rapide. Dans un tel cas, les hauts et les bas de la saisonnalité deviendront plus dramatiques avec le temps. Sans ces conditions de stationnarité rencontrées, un grand nombre des calculs associés au procédé ne peuvent pas être calculés. Si une représentation graphique des données indique la non-stationnalité, alors vous devez faire une différence entre les séries. La différence est un excellent moyen de transformer une série non stationnaire en stationnaire. Ceci est fait en soustrayant l'observation dans la période courante de la précédente. Si cette transformation n'est effectuée qu'une seule fois dans une série, vous dites que les données ont été différenciées pour la première fois. Ce processus élimine essentiellement la tendance si votre série croît à un taux assez constant. Si elle croît à un rythme croissant, vous pouvez appliquer la même procédure et la différence les données à nouveau. Vos données seraient ensuite secondées. Les autocorrélations sont des valeurs numériques qui indiquent comment une série de données est liée à elle-même dans le temps. Plus précisément, elle mesure à quel point les valeurs de données à un certain nombre de périodes séparées sont corrélées les unes aux autres dans le temps. Le nombre de périodes d'intervalle est généralement appelé le décalage. Par exemple, une autocorrélation au décalage 1 mesure comment les valeurs 1 période séparées sont corrélées les unes aux autres tout au long de la série. Une autocorrélation au décalage 2 mesure comment les données deux périodes séparées sont corrélées tout au long de la série. Les autocorrélations peuvent varier de 1 à -1. Une valeur proche de 1 indique une corrélation positive élevée alors qu'une valeur proche de -1 implique une corrélation négative élevée. Ces mesures sont le plus souvent évaluées par des parcelles graphiques appelées corrélagrammes. Un corrélogramme trace les valeurs d'autocorrélation pour une série donnée à différents décalages. Ceci est appelé la fonction d'autocorrélation et est très important dans la méthode ARIMA. La méthodologie ARIMA tente de décrire les mouvements d'une série temporelle stationnaire en fonction de ce que l'on appelle les paramètres autorégressifs et de moyenne mobile. Ceux-ci sont appelés paramètres AR (autoregessive) et MA (moyennes mobiles). Un modèle AR avec un seul paramètre peut être écrit comme. X (t) A (1) X (t-1) E (t) où X (t) séries temporelles sous enquête A (1) le paramètre autorégressif d'ordre 1 X (t-1) (T) le terme d'erreur du modèle Cela signifie simplement que toute valeur donnée X (t) peut être expliquée par une fonction de sa valeur précédente, X (t-1), plus une erreur aléatoire inexplicable, E (t). Si la valeur estimée de A (1) était de 0,30, alors la valeur actuelle de la série serait liée à 30 de sa valeur il y a une période. Bien sûr, la série pourrait être liée à plus d'une valeur passée. Par exemple, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Cela indique que la valeur courante de la série est une combinaison des deux valeurs immédiatement précédentes, X (t-1) et X (t-2), plus une erreur aléatoire E (t). Notre modèle est maintenant un modèle autorégressif de l'ordre 2. Modèles de moyenne mobile: Un deuxième type de modèle de Box-Jenkins est appelé un modèle de moyenne mobile. Bien que ces modèles semblent très semblables au modèle AR, le concept derrière eux est tout à fait différent. Les paramètres de la moyenne mobile rapportent ce qui se produit dans la période t seulement aux erreurs aléatoires qui se sont produites dans des périodes passées, c'est-à-dire E (t-1), E (t-2), etc. plutôt que X (t-1) T-2), (Xt-3) comme dans les approches autorégressives. Un modèle de moyenne mobile avec un terme MA peut s'écrire comme suit. X (t) - B (1) E (t-1) E (t) Le terme B (1) est appelé MA d'ordre 1. Le signe négatif devant le paramètre est utilisé uniquement pour la convention et est habituellement imprimé Par la plupart des programmes informatiques. Le modèle ci-dessus dit simplement que toute valeur donnée de X (t) est directement liée uniquement à l'erreur aléatoire de la période précédente, E (t-1), et au terme d'erreur courant E (t). Comme dans le cas des modèles autorégressifs, les modèles de moyenne mobile peuvent être étendus à des structures d'ordre supérieur couvrant différentes combinaisons et des longueurs moyennes mobiles. La méthodologie ARIMA permet également de construire des modèles intégrant à la fois des paramètres autorégressifs et des paramètres de la moyenne mobile. Ces modèles sont souvent appelés modèles mixtes. Bien que cela constitue un outil de prévision plus compliqué, la structure peut en effet simuler la série mieux et produire une prévision plus précise. Les modèles purs impliquent que la structure ne se compose que de paramètres AR ou MA - pas les deux. Les modèles développés par cette approche sont habituellement appelés modèles ARIMA car ils utilisent une combinaison d'auto-régression (AR), d'intégration (I) - se référant au processus inverse de différenciation pour produire les opérations de prévision et de moyenne mobile (MA). Un modèle ARIMA est habituellement déclaré comme ARIMA (p, d, q). Cela représente l'ordre des composantes autorégressives (p), le nombre d'opérateurs de différenciation (d) et l'ordre le plus élevé du terme moyen mobile. Par exemple, ARIMA (2,1,1) signifie que vous avez un modèle autorégressif de second ordre avec une composante moyenne mobile de premier ordre dont la série a été différenciée une fois pour induire la stationnarité. Picking the Right Specification: Le principal problème dans le classique Box-Jenkins est d'essayer de décider quelle spécification ARIMA à utiliser - i. e. Combien de paramètres AR et / ou MA à inclure. C'est ce que beaucoup de Box-Jenkings 1976 a été consacré au processus d'identification. Elle dépend de l'éva - luation graphique et numérique des fonctions d'autocorrélation et d'autocorrélation partielle. Eh bien, pour vos modèles de base, la tâche n'est pas trop difficile. Chacun a des fonctions d'autocorrélation qui ont une certaine apparence. Cependant, lorsque vous montez en complexité, les motifs ne sont pas facilement détectés. Pour rendre les choses plus difficiles, vos données ne représentent qu'un échantillon du processus sous-jacent. Cela signifie que les erreurs d'échantillonnage (valeurs aberrantes, erreurs de mesure, etc.) peuvent fausser le processus d'identification théorique. C'est pourquoi la modélisation ARIMA traditionnelle est un art plutôt qu'une science.
No comments:
Post a Comment