Sunday 26 November 2017

Definição De Processo Médio Móvel


Média móvel média de dados de séries temporais (observações igualmente espaçadas no tempo) de vários períodos consecutivos. Chamado de movimento porque é continuamente recalculado à medida que novos dados se tornam disponíveis, ele progride soltando o valor mais antigo e adicionando o valor mais recente. Por exemplo, a média móvel das vendas de seis meses pode ser calculada tomando a média das vendas de janeiro a junho, depois a média das vendas de fevereiro a julho, de março a agosto, e assim por diante. As médias móveis (1) reduzem o efeito das variações temporárias nos dados, (2) melhoram o ajuste dos dados para uma linha (um processo chamado alisamento) para mostrar a tendência dos dados mais claramente e (3) realçar qualquer valor acima ou abaixo do tendência. Se você está calculando algo com variância muito alta, o melhor que você pode fazer é descobrir a média móvel. Eu queria saber qual era a média móvel dos dados, então eu teria uma melhor compreensão de como estávamos fazendo. Quando você está tentando descobrir alguns números que mudam frequentemente, o melhor que você pode fazer é calcular a média móvel. Continuação de reivindicações Média Mínima - MA BREAKING DOWN Média Móvel - MA Como exemplo da SMA, considere uma garantia com os seguintes preços de fechamento em 15 dias: Semana 1 (5 dias) 20, 22, 24, 25, 23 Semana 2 (5 dias) 26 28, 26, 29, 27 semanas 3 (5 dias) 28, 30, 27, 29, 28 Um MA de 10 dias seria a média dos preços de fechamento dos primeiros 10 dias como primeiro ponto de dados. O próximo ponto de dados eliminaria o preço mais antigo, adicionaria o preço no dia 11 e levaria a média, e assim por diante, como mostrado abaixo. Conforme observado anteriormente, as MAs desaceleram a ação de preço atual porque são baseadas em preços passados ​​quanto mais o período de tempo para o MA, maior o atraso. Assim, um MA de 200 dias terá um grau de atraso muito maior do que um MA de 20 dias porque contém preços nos últimos 200 dias. O comprimento do MA a ser usado depende dos objetivos de negociação, com MAs mais curtos usados ​​para negociação de curto prazo e MA mais longo prazo mais adequados para investidores de longo prazo. O MA de 200 dias é amplamente seguido por investidores e comerciantes, com pausas acima e abaixo dessa média móvel considerada como sinais comerciais importantes. Os MAs também oferecem sinais comerciais importantes por conta própria, ou quando duas médias atravessam. Um MA ascendente indica que a segurança está em uma tendência de alta. Enquanto um MA decrescente indica que está em uma tendência de baixa. Da mesma forma, o momento ascendente é confirmado com um cruzamento de alta. Que ocorre quando um mes de curto prazo cruza acima de um MA de longo prazo. O momento decrescente é confirmado com um cruzamento descendente, que ocorre quando um MA de curto prazo se cruza abaixo de um MA mais longo prazo. Breve introdução à série moderna Série Definição Uma série de tempo é uma função aleatória xt de um argumento t em um conjunto T. Em outras palavras, uma série de tempo é uma família de variáveis ​​aleatórias. X t-1. X t. X t1. Correspondendo a todos os elementos no conjunto T, onde T é suposto ser um conjunto infinito e denumerável. Definição Uma série temporal observada t t e T o T é considerada como parte de uma realização de uma função aleatória x t. Um conjunto infinito de possíveis realizações que poderiam ter sido observadas é chamado de conjunto. Para colocar as coisas de forma mais rigorosa, a série temporal (ou função aleatória) é uma função real x (w, t) das duas variáveis ​​w e t, onde wW e t T. Se nós corrigimos o valor de w. Temos uma função real x (t w) do tempo t, que é uma realização das séries temporais. Se nós corrigimos o valor de t, então temos uma variável aleatória x (w t). Para um dado momento, existe uma distribuição de probabilidade sobre x. Assim, uma função aleatória x (w, t) pode ser considerada como uma família de variáveis ​​aleatórias ou como uma família de realizações. Definição Definimos a função de distribuição da variável aleatória w dada t 0 como P o) x (x). Da mesma forma, podemos definir a distribuição conjunta para n variáveis ​​aleatórias. Os pontos que distinguem a análise de séries temporais das análises estatísticas comuns são os seguintes (1) A dependência entre observações em diferentes pontos cronológicos no tempo desempenha um papel essencial. Em outras palavras, a ordem das observações é importante. Na análise estatística normal, assume-se que as observações são mutuamente independentes. (2) O domínio de t é infinito. (3) Temos que fazer uma inferência a partir de uma realização. A realização da variável aleatória pode ser observada apenas uma vez em cada ponto no tempo. Na análise multivariada, temos muitas observações sobre um número finito de variáveis. Essa diferença crítica exige a assunção de estacionaria. Definição A função aleatória x t é dita ser estritamente estacionária se todas as funções de distribuição dimensional finita que definem x t permanecem iguais mesmo se o grupo inteiro de pontos t 1. T 2. T n é deslocado ao longo do eixo do tempo. Ou seja, se for qualquer número inteiro t 1. T 2. T n e k. Graficamente, pode-se imaginar a realização de uma série estritamente estacionária como tendo não só o mesmo nível em dois intervalos diferentes, mas também a mesma função de distribuição, até os parâmetros que a definem. A assunção de estacionaria torna nossas vidas mais simples e menos onerosas. Sem estacionaridade, teríamos que provar o processo com freqüência em cada ponto do tempo para construir uma caracterização das funções de distribuição na definição anterior. A estacionarização significa que podemos limitar nossa atenção a algumas das funções numéricas mais simples, ou seja, os momentos das distribuições. Os momentos centrais são dados pela Definição (i) O valor médio da série temporal t é, isto é, o momento da primeira ordem. (Ii) A função de autocovariância de t é, isto é, o segundo momento sobre a média. Se ts, você tem a variância de x t. Usaremos para denotar a autocovariância de uma série estacionária, onde k denota a diferença entre t e s. (Iii) A função de autocorrelação (ACF) de t é usará para denotar a autocorrelação de uma série estacionária, onde k denota a diferença entre t e s. (Iv) A autocorrelação parcial (PACF). F kk. É a correlação entre z t e z tk após a remoção de sua dependência linear mútua das variáveis ​​intervenientes z t1. Z t2. Z tk-1. Uma maneira simples de calcular a autocorrelação parcial entre z t e z tk é executar as duas regressões, em seguida, calcular a correlação entre os dois vetores residuais. Ou, depois de medir as variáveis ​​como desvios de seus meios, a autocorrelação parcial pode ser encontrada como o coeficiente de regressão LS em z t no modelo onde o ponto sobre a variável indica que é medido como um desvio de sua média. (V) As equações de Yule-Walker fornecem uma relação importante entre as autocorrelações parciais e as autocorrelações. Multiplique os dois lados da equação 10 por z tk-j e tenha expectativas. Esta operação nos dá a seguinte equação de diferença nas autocovariâncias ou, em termos de autocorrelações. Essa representação aparentemente simples é realmente um resultado poderoso. Ou seja, para j1,2. K podemos escrever o sistema completo de equações, conhecidas como as equações de Yule-Walker, da álgebra linear você sabe que a matriz de r s é de nível completo. Portanto, é possível aplicar a regra de Cramers sucessivamente para k1,2. Para resolver o sistema para as autocorrelações parciais. Os três primeiros são. Temos três resultados importantes em séries estritamente estacionárias. A implicação é que podemos usar qualquer realização finita da seqüência para estimar a média. Segundo. Se t é estritamente estacionário e E t 2 lt, então a implicação é que a autocovariância depende apenas da diferença entre t e s, e não o seu ponto cronológico no tempo. Poderíamos usar qualquer par de intervalos na computação da autocovariância, desde que o tempo entre eles fosse constante. E podemos usar qualquer realização finita dos dados para estimar as autocovariâncias. Em terceiro lugar, a função de autocorrelação no caso da estacionança rígida é dada pela implicação é que a autocorrelação depende apenas da diferença entre t e s, e novamente eles podem ser estimados por qualquer realização finita dos dados. Se nosso objetivo é estimar parâmetros que sejam descritivos das realizações possíveis das séries temporais, então talvez a estacionalização estrita seja muito restritiva. Por exemplo, se a média e as covariâncias de x t são constantes e independentes do ponto cronológico no tempo, talvez não seja importante para nós que a função de distribuição seja a mesma para diferentes intervalos de tempo. Definição Uma função aleatória é estacionária no sentido amplo (ou fracamente estacionário, ou estacionário no sentido de Khinchins, ou covariância estacionária) se m 1 (t) m e m 11 (t, s). A estacionária estrita não implica, por si só, uma estabilidade fraca. A estabilidade fraca não implica uma estacionança rigorosa. A estacionaria estrita com E t 2 lt implica baixa estacionança. Os teoremas ergódicos estão preocupados com a questão das condições necessárias e suficientes para fazer inferências a partir de uma única realização de uma série de tempo. Basicamente, ele se resume a assumir uma estacionança fraca. Teorema Se t é fracamente estacionário com a função média m e covariância, então, isto é, para qualquer dado e gt 0 e h gt 0 existe algum número T o tal que para todo T gt T o. Se e somente se esta condição necessária e suficiente é que as autocovariâncias morrem, caso em que a média da amostra é um estimador consistente para a média da população. Corolário Se t é fracamente estacionário com E tk xt 2 lt para qualquer t, e E tk xtx tsk x ts é independente de t para qualquer número inteiro s, então se e somente se onde A conseqüência do corolário é a suposição de que xtx tk é Fracamente estacionário. O teorema ergódico não é mais do que uma lei de grandes números quando as observações estão correlacionadas. Pode-se perguntar sobre este ponto sobre as implicações práticas da estacionararia. A aplicação mais comum do uso de técnicas de séries temporais é a modelagem de dados macroeconômicos, tanto teóricos como ateteorísticos. Como exemplo do primeiro, pode-se ter um modelo de acelerador multiplicador. Para que o modelo seja estacionário, os parâmetros devem ter certos valores. Um teste do modelo é então coletar os dados relevantes e estimar os parâmetros. Se as estimativas não são consistentes com a estacionaridade, então é preciso repensar o modelo teórico ou o modelo estatístico, ou ambos. Agora temos máquinas suficientes para começar a falar sobre a modelagem dos dados das séries temporais univariadas. Há quatro etapas no processo. 1. Construindo modelos de conhecimento teórico e experiencial 2. Modelos de identificação baseados nos dados (séries observadas) 3. Ajustando os modelos (estimando os parâmetros do (s) modelo (s)) 4. verificando o modelo Se na quarta etapa não estamos Satisfeito, voltamos para o primeiro passo. O processo é iterativo até verificação e ressincronização adicionais não produzem melhorias nos resultados. Diagrammaticamente Definição Algumas operações simples incluem o seguinte: O operador de retrocesso Bx tx t-1 O operador de frente Fx tx t1 O operador de diferença 1 - B xtxt - x t-1 O operador de diferença se comporta de forma consistente com a constante em uma série infinita . Ou seja, o inverso é o limite de uma soma infinita. Nomeadamente, -1 (1-B) -1 1 (1-B) 1BB 2. O operador de integração S -1 Uma vez que é o inverso do operador de diferença, o operador de integração serve para construir a soma. MODELO DE CONSTRUÇÃO Nesta seção, oferecemos uma breve revisão dos modelos mais comuns de séries temporais. Com base no conhecimento do processo gerador de dados, escolhe uma classe de modelos para identificação e estimativa das possibilidades que se seguem. Definição Suponha que Ex t m seja independente de t. Um modelo como, com as características, é chamado de modelo autorregressivo de ordem p, AR (p). Definição Se uma variável dependente do tempo (processo estocástico) t satisfaça, então t é dito para satisfazer a propriedade Markov. No LHS, a expectativa é condicionada à história infinita de x t. No RHS está condicionado apenas em parte da história. A partir das definições, um modelo de AR (p) é visto para satisfazer a propriedade de Markov. Usando o operador de mudança de turno, podemos escrever nosso modelo AR como Teorema Uma condição necessária e suficiente para que o modelo AR (p) seja estacionário é que todas as raízes do polinômio se encontram fora do círculo da unidade. Exemplo 1 Considere o AR (1) A única raiz de 1 - f 1 B 0 é B 1 f 1. A condição para a estacionaria exige isso. Se, então, a série observada parecerá muito frenética. Por exemplo. Considere em que o termo de ruído branco tenha uma distribuição normal com uma média zero e uma variância de uma. As observações mudam de sinal com quase todas as observações. Se, por outro lado, a série observada será muito mais suave. Nesta série, uma observação tende a estar acima de 0 se o antecessor estiver acima de zero. A variância de e t é s e 2 para todos os t. A variância de x t. Quando é zero, é dado porque a série é estacionária, podemos escrever. Assim, a função de autocovariância de uma série AR (1) é, supondo sem perda de generalidade m 0 Para ver o que isso parece em termos dos parâmetros AR, usaremos o fato de que podemos escrever xt da seguinte forma. Multiplicar por x Tk e tendo expectativas Note que as autocovarianças morrem como k cresce. A função de autocorrelação é a autocovariância dividida pela variância do termo de ruído branco. Ou,. Usando as fórmulas anteriores de Yule-Walker para as autocorrelações parciais que temos Para um AR (1), as autocorrelações desaparecem exponencialmente e as autocorrelações parciais exibem uma espiga em um retardo e são zero a partir de então. Exemplo 2 Considere o AR (2) O polinômio associado no operador de atraso é que as raízes podem ser encontradas usando a fórmula quadrática. As raízes são Quando as raízes são reais e, como conseqüência, a série diminuirá exponencialmente em resposta a um choque. Quando as raízes são complexas e a série aparecerá como uma onda de sinal amortecida. O teorema de estacionaridade impõe as seguintes condições nos coeficientes AR A autocovariância para um processo AR (2), com média zero, é Dividindo através da variância de xt, dá a função de autocorrelação Uma vez que podemos escrever de forma semelhante para a segunda e terceira autocorrelação O outro As autocorrelações são resolvidas de forma recursiva. Seu padrão é regido pelas raízes da segunda ordem, diferença de diferença linear. Se as raízes são reais, as autocorrelações diminuirão exponencialmente. Quando as raízes são complexas, as autocorrelações aparecerão como uma onda senoidal amortecida. Usando as equações de Yule-Walker, as autocorrelações parciais são Novamente, as autocorrelações desaparecem lentamente. A autocorrelação parcial, por outro lado, é bastante distinta. Tem pontos em um e dois atrasos e é zero depois disso. Teorema Se x t é um processo AR (p) estacionário, ele pode ser gravado de forma equivalente como um modelo de filtro linear. Ou seja, o polinômio no operador de backshift pode ser invertido e o AR (p) escrito como uma média móvel de ordem infinita. Exemplo Suponha que z t seja um processo AR (1) com média zero. O que é verdadeiro para o período atual também deve ser verdade para períodos anteriores. Assim, por substituição recursiva, podemos escrever Praça dos dois lados e ter expectativas de que o lado direito desaparece como k desde f lt 1. Portanto, a soma converge para z t em média quadrática. Podemos reescrever o modelo AR (p) como um filtro linear que sabemos estar parado. A função de autocorrelação e autocorrelação parcial Geralmente Suponha que uma série estacionária z t com zero médio seja reconhecida como autoregressiva. A função de autocorrelação de um AR (p) é encontrada ao assumir expectativas e dividir através da variância de z t. Isso nos diz que r k é uma combinação linear das autocorrelações anteriores. Podemos usar isso na aplicação da regra de Cramers para (i) na resolução de f kk. Em particular, podemos ver que essa dependência linear causará f kk 0 para k gt p. Esta característica distintiva das séries autorregressivas será muito útil quando se trata de identificação de uma série desconhecida. Se você tem o MathCAD ou o MathCAD Explorer, então você pode experimentar interatividade com algumas das idéias AR (p) apresentadas aqui. Modelos médios em movimento Considere um modelo dinâmico no qual a série de interesse depende apenas de alguma parte da história do termo ruído branco. Diagramaticamente isso pode ser representado como Definição Suponha que a t seja uma sequência não correlacionada de i. i.d. Variáveis ​​aleatórias com média zero e variância finita. Em seguida, um processo de ordem média móvel q, MA (q) é dado pelo teorema: um processo de média móvel é sempre estacionário. Prova: ao invés de começar com uma prova geral, faremos isso para um caso específico. Suponha que z t seja MA (1). Então . Claro, um t tem média zero e variância finita. A média de z t é sempre zero. As autocovariâncias serão dadas por Você pode ver que a média da variável aleatória não depende do tempo de qualquer maneira. Você também pode ver que a autocovariância depende apenas do deslocamento s, não de onde na série começamos. Podemos provar o mesmo resultado de forma mais geral começando com, que tem a representação média móvel alternativa. Considere primeiro a variância de z t. Por substituição recursiva, você pode mostrar que isso é igual à Soma que sabemos ser uma série convergente, então a variância é finita e é independente do tempo. As covariâncias são, por exemplo, você também pode ver que as covariâncias automáticas dependem apenas dos pontos relativos no tempo e não do ponto cronológico no tempo. Nossa conclusão de tudo isso é que um processo MA () é estacionário. Para o processo geral de MA (q), a função de autocorrelação é dada por A função de autocorrelação parcial irá desaparecer suavemente. Você pode ver isso invando o processo para obter um processo AR (). Se você tem MathCAD ou MathCAD Explorer, então você pode experimentar interativamente com algumas das idéias de MA (q) apresentadas aqui. Autoregressivo Misto - Definição de Modelos Média em Movimento Suponha que um t seja uma sequência não correlacionada de i. i.d. Variáveis ​​aleatórias com média zero e variância finita. Em seguida, um processo de ordem vertical auto-regressivo (p, q), ARMA (p, q) é dado pelas raízes do operador autorregente devem estar todos fora do círculo da unidade. O número de incógnitas é pq2. Os p e q são óbvios. O 2 inclui o nível do processo, m. E a variância do termo de ruído branco, sa 2. Suponha que combinamos nossas representações AR e MA para que o modelo seja e os coeficientes sejam normalizados de modo que bo 1. Então essa representação é chamada ARMA (p, q) se a Raízes de (1) todos ficam fora do círculo da unidade. Suponha que o y t seja medido como desvio da média, então podemos soltar um o. Então a função de autocovariância é derivada de se jgtq, então, os termos MA abandonam a expectativa de dar. Ou seja, a função de autocovariância parece uma AR típica para atrasos após q eles morrem suavemente após q, mas não podemos dizer como 1,2,133, Q vai olhar. Também podemos examinar o PACF para esta classe de modelo. O modelo pode ser escrito como podemos escrever isso como um processo de MA (inf) que sugere que os PACFs desaparecem lentamente. Com alguma aritmética, podemos mostrar que isso acontece somente após os primeiros p picos contribuídos pela parte AR. Lei empírica Na realidade, uma série de tempo estacionária pode ser representada por p 2 e q 2. Se o seu negócio é fornecer uma boa aproximação à realidade e a bondade de ajuste é seu critério, então um modelo pródigo é preferido. Se o seu interesse é a eficiência preditiva, o modelo parcimonioso é preferido. Experimente com as idéias ARMA apresentadas acima com uma planilha de MathCAD. Integração Autoregressiva Modelos de média em movimento Filtro MA Filtro AR Integre o filtro Às vezes, o processo, ou série, que estamos tentando modelar não é estacionário em níveis. Mas pode ser estacionário em, digamos, as primeiras diferenças. Ou seja, na sua forma original, as autocovariâncias para a série podem não ser independentes do ponto cronológico no tempo. No entanto, se construímos uma nova série, que é a primeira diferença da série original, esta nova série satisfaz a definição de estacionaria. Este é frequentemente o caso com dados econômicos que são altamente atualizados. Definição Suponha que z t não seja estacionário, mas z t - z t-1 satisfaz a definição de estacionaria. Além disso, em, o termo de ruído branco tem média e variância finitas. Podemos escrever o modelo como Este é chamado de modelo ARIMA (p, d, q). P identifica a ordem do operador AR, d identifica a energia. Q identifica a ordem do operador de MA. Se as raízes de f (B) ficam fora do círculo da unidade, podemos reescrever o ARIMA (p, d, q) como um filtro linear. Isto é, Pode ser escrito como MA (). Nós reservamos a discussão da detecção de raízes da unidade para outra parte das notas da aula. Considere um sistema dinâmico com x t como uma série de entrada e y t como uma série de saída. Diagrammaticamente temos Estes modelos são uma analogia discreta de equações diferenciais lineares. Suponhamos a seguinte relação onde b indica um atraso puro. Lembre-se de que (1-B). Fazendo essa substituição, o modelo pode ser escrito Se o coeficiente de polinômio em y t pode ser invertido, então o modelo pode ser escrito como V (B) é conhecida como função de resposta ao impulso. Vamos encontrar essa terminologia novamente em nossa discussão posterior de vetores autorregressivos. Modelos de cointegração e correção de erros. IDENTIFICAÇÃO DO MODELO Tendo decidido uma classe de modelos, é preciso agora identificar a ordem dos processos que geram os dados. Ou seja, é preciso fazer as melhores suposições quanto à ordem dos processos AR e MA que conduzem as séries estacionárias. Uma série estacionária é completamente caracterizada por suas significativas e autocovariâncias. Por razões analíticas, geralmente trabalhamos com as autocorrelações e autocorrelações parciais. Essas duas ferramentas básicas possuem padrões únicos para processos de AR e MA estacionários. Pode-se calcular as estimativas de amostra das funções de autocorrelação e autocorrelação parcial e compará-las com os resultados tabulados para modelos padrão. Função de Autocovariância de Amostra Função de Autocorrelação de Amostra As autocorrelações parciais de amostra serão Usando as autocorrelações e as autocorrelações parciais são bastante simples em princípio. Suponhamos que tenhamos uma série z t. Com zero, o que é AR (1). Se corremos a regressão de z t2 em z t1 e z t, esperamos encontrar que o coeficiente em z t não era diferente de zero, pois essa autocorrelação parcial deveria ser zero. Por outro lado, as autocorrelações para esta série devem diminuir exponencialmente para aumentar os atrasos (veja o exemplo AR (1) acima). Suponha que a série seja realmente uma média móvel. A autocorrelação deve ser zero em todos os lugares, mas no primeiro atraso. A autocorrelação parcial deve desaparecer exponencialmente. Mesmo a partir do nosso rompimento muito superficial através do básico da análise de séries temporais, é evidente que existe uma dualidade entre os processos AR e MA. Essa dualidade pode ser resumida na tabela a seguir.

No comments:

Post a Comment