Técnicas para análise de séries temporais



VI SEMEAD Ensaio

M.Q.I.

UMA BREVE DESCRIÇÃO DE ALGUMAS TÉCNICAS PARA ANÁLISE DE SÉRIES TEMPORAIS: SÉRIES DE FOURIER, WAVELETS, ARIMA, MODELOS ESTRUTURAIS PARA SÉRIES DE TEMPO E REDES NEURAIS.

Mauri Aparecido de Oliveira[1]

Luiz Paulo Lopes Favero[2]

UMA BREVE DESCRIÇÃO DE ALGUMAS TÉCNICAS PARA ANÁLISE DE SÉRIES TEMPORAIS: SÉRIES DE FOURIER, WAVELETS, ARIMA, MODELOS ESTRUTURAIS PARA SÉRIES DE TEMPO E REDES NEURAIS[3].

Resumo

Neste trabalho estamos interessados em fazer uma descrição das técnicas mais empregadas para análise de séries temporais. Serão mostradas diferentes abordagens e suas particularidades no tratamento das séries temporais. A idéia não é colocar as técnicas como competidoras entre si mas sim que podem ser muitas vezes usadas conjuntamente ou alternativamente para as análises de séries temporais. As descrições não serão apresentadas com todo o rigor que normalmente é exigido em textos mais técnicos, ou seja várias considerações probabilísticas, matemáticas e estatísticas podem ser consideradas faltantes para um leitor mais especializado no assunto. Nossa pretensão é apresentar de forma breve e sucinta as técnicas que são utilizados para modelamento e análise das séries temporais e a importância que desempenham na criação de estruturas matemáticas para representar o passado e prever o comportamento do futuro.

1. Introdução

Uma série temporal pode ser definida como um conjunto de observações de uma variável dispostas seqüencialmente no tempo. A série temporal pode ser classificada como determinística ou estocástica, quando os valores da série podem ser escritos através de uma função matemática y = f(tempo) diz-se que a série é estacionária, quando a série envolve além de uma função matemática do tempo também um termo aleatório y = f(tempo, [pic]) chamamos a série de estocástica. Normalmente as séries temporais são analisadas a partir de seus principais movimentos descritos como: tendência, ciclo, sazonalidade e variações aleatórias. Neste trabalho vamos usar os termos séries temporais e séries de tempo como tendo o mesmo significado.

2. Análise de Fourier Clássica

A análise de Fourier é uma das formas mais tradicionais para tratamento de sinais e séries temporais. Esta técnica foi criada por Jean Baptiste Joseph Fourier e publicada em 1822 no seu trabalho intitulado Thèorie Analitique de la Chaleur. Fourier dedicou-se na resolução das equações diferenciais que regem a transferência de calor utilizando uma técnica de séries de senos e cossenos (Série de Fourier) para resolver seus problemas. Vamos restringir aqui nossas explicações para funções determinísticas periódicas. Uma função, ou série, é dita periódica quando f(t + p) = f(t), sendo p o período. A Figura-2.1 mostra séries que podem ser obtidas a partir da combinação de senos e cossenos.

|[pic] |f(t) = sen(2t) – cos(3t) |

|[pic] |f(t) = 2 + sin(2t) + 4cos(3t) + sin(t) - 2cos(2t) |

Figura-2.1 Séries formadas por funções de senos e cossenos

Podemos adotar este procedimento para escrever uma série f(t) genérica em termos de senos e cossenos da seguinte forma:

[pic] (2.1)

ou ainda como: [pic]. Portanto, surge a pergunta: Dada uma série f(t), definida em um certo intervalo, quais são os valores dos coeficientes A, [pic] e [pic] de modo que a soma de senos e cossenos a represente? Estes valores, no intervalo [pic], são expressos como sendo [pic] , [pic] e [pic]. Para que a série no domínio do tempo seja convertida para o domínio da freqüência é utilizada a transformada de Fourier (TF) dada por [pic], [pic] representa a freqüência e [pic]. Mudar para o domínio da freqüência é importante porque na maioria das vezes, a informação que não pode ser lida no domínio do tempo pode ser obtida no domínio da freqüência.

Por exemplo, seja a série x(t)=cos(2[pic]10t)+ cos(2[pic]25t) +cos(2[pic]50t)+ cos(2[pic]100t) representada na Figura-2.2a[4] a sua transformada de Fourier (TF) mostrando as freqüências que a compõem são representadas na Figura-2.2b. A Figura-2.2b também pode ser chamada de espectro de freqüência da série x(t).

|[pic] |[pic] |

|(a) |(b) |

Figura-2.2 Série temporal mostrada em (a) e a sua transformada de Fourier em (b)

Para podermos prosseguir até o nosso próximo tópico chamado de transformadas de ondaletas ou waveletes (TW) e entendermos melhor a sua necessidade vamos olhar mais atentamente para a transformada de Fourier. A TF (bem como TW) é uma transformada reversível, ou seja, ela permite ir para trás e para frente num processamento inicial (transformações) dos sinais. Porém, apenas uma dessas alternativas é disponível para qualquer série. Ou seja, não há informação de freqüência disponível no domínio do tempo da série ou sinal, com isso não há informação de tempo disponível na transformada de Fourier do sinal. A questão natural que surge: o que é necessário para ter ambos, a informação de tempo e de freqüência ao mesmo tempo? A resposta para esta questão, depende em particular da aplicação e da natureza do sinal ou série que temos. Lembremos que a TF da a informação da freqüência do sinal, a qual significa que temos o quanto de cada freqüência existe no sinal Figura-2.2b, mas isso não nos diz quando no tempo estas componentes freqüênciais existem. Esta informação não é necessária quando o sinal é estacionário. O conceito de estacionariedade é importante, vamos analisado mais detidamente. Sinais cujo conteúdo de freqüência não mudam no tempo são chamados de estacionários.

Um processo X(t) é estacionário se ele se desenvolve no tempo, de modo que a escolha de uma origem dos tempos não seja importante, as características probabilísticas de X(t +[pic]), para todo [pic], são as mesmas de X(t) [Morettin/1999]. Em outras palavras, o conteúdo de freqüências dos sinais estacionários não mudam no tempo. Neste caso, nós não precisamos saber em quais tempos os componentes freqüênciais existem, desde que nesse caso o que acontece é que todos os componentes freqüênciais existem o tempo todo.

No caso de séries não-estacionárias a conclusão é que a transformada de Fourier pode ser usada em sinais não estacionários, apenas se estivermos interessados em qual o espectro de componentes existe no sinal, mas não interessa quando estes ocorrem. Porém, se esta informação é necessária, isto é, se nós queremos saber, qual o componente espectral que ocorre em qual tempo (intervalo), então a transformada de Fourier não é a transformada correta para ser utilizada.

3. Análise de Ondaletas (Wavelets)

A transformada de ondaleta ou wavelet (TW) é capaz de fornecer a informação de tempo e de freqüência simultaneamente, conseqüentemente dando a representação de freqüência-tempo da série. Nesse ponto vale lembrar o princípio da incerteza de Heisenberg. Nós não podemos exatamente saber qual freqüência existe em um dado instante de tempo, mas apenas podemos saber quais bandas de freqüência existem em determinados intervalos de tempo.

A freqüência e a informação do tempo de uma série em certo ponto no plano freqüência-tempo não podem ser conhecidos. Em outras palavras: nós não podemos saber qual o componente espectral existe em qualquer dado instante de tempo. Este é um problema para se resolver, e esta é a principal razão pela qual pesquisadores tem mudado das transformadas de Fourier para a TW.

A análise de ondaletas tem sido utilizada em vários ramos da ciência, em economia sua principal aplicação encontra-se na econometria no tratamento de séries temporais utilizadas para realizar previsão [Torrence/1998] [Morettin/1999].

A transforma de wavelet contínua TWC é uma ferramenta excelente para mapear as mudanças de propriedades em séries não estacionárias. Sua expressão é dada por:

[pic] [pic] (3.1)

Onde [pic]é a série que estamos utilizando, os parâmetros [pic] e s são chamados de translação e escala, respectivamente. Psi(t) é uma função chamada de ondaleta mãe, sendo

[pic] [pic] (3.2)

usualmente são tomados valores especiais para [pic] e s: [pic], [pic], [pic].

A ondaleta-mãe funciona como uma janela de abertura finita percorrendo a função f(t) - suporte compacto. A translação[pic] está relacionada a posição da janela, ou seja a posição que a janela assume através do sinal. A escala s refere-se ao comprimento da abertura da janela.

|Série não estacionária gerada com cem valores |

| |Time |Signal | |Time |Signal | |Time |Signal | |Time |Signal |

|1 |0 |0 |26 |0,25 |5,3847E-08 |51 |0,5 |5,3847E-08 |76 |0,75 |-0,7071068 |

|2 |0,01 |-0,5877852 |27 |0,26 |-0,9510565 |52 |0,51 |-0,809017 |77 |0,76 |-0,9510565 |

|3 |0,02 |0,95105651 |28 |0,27 |0,58778521 |53 |0,52 |-0,9510565 |78 |0,77 |-0,9876883 |

|4 |0,03 |-0,9510565 |29 |0,28 |0,5877853 |54 |0,53 |-0,309017 |79 |0,78 |-0,809017 |

|5 |0,04 |0,58778527 |30 |0,29 |-0,9510565 |55 |0,54 |0,58778521 |80 |0,79 |-0,4539905 |

|6 |0,05 |-2,154E-08 |31 |0,3 |-6,462E-08 |56 |0,55 |1 |81 |0,8 |-4,308E-08 |

|7 |0,06 |-0,5877852 |32 |0,31 |0,95105654 |57 |0,56 |0,5877853 |82 |0,81 |0,45399046 |

|8 |0,07 |0,95105651 |33 |0,32 |-0,5877852 |58 |0,57 |-0,3090169 |83 |0,82 |0,80901697 |

|9 |0,08 |-0,9510565 |34 |0,33 |-0,5877853 |59 |0,58 |-0,9510565 |84 |0,83 |0,98768833 |

|10 |0,09 |0,58778528 |35 |0,34 |0,95105649 |60 |0,59 |-0,809017 |85 |0,84 |0,95105653 |

|11 |0,1 |-4,308E-08 |36 |0,35 |7,5386E-08 |61 |0,6 |-6,462E-08 |86 |0,85 |0,70710681 |

|12 |0,11 |-0,5877852 |37 |0,36 |-0,9510565 |62 |0,61 |0,80901696 |87 |0,86 |0,30901704 |

|13 |0,12 |0,9510565 |38 |0,37 |0,58778519 |63 |0,62 |0,95105654 |88 |0,87 |-0,1564344 |

|14 |0,13 |-0,9510565 |39 |0,38 |0,58778532 |64 |0,63 |0,30901706 |89 |0,88 |-0,5877852 |

|15 |0,14 |0,5877853 |40 |0,39 |-0,9510565 |65 |0,64 |-0,5877852 |90 |0,89 |-0,8910065 |

|16 |0,15 |-6,462E-08 |41 |0,4 |-8,616E-08 |66 |0,65 |-1 |91 |0,9 |-1 |

|17 |0,16 |-0,5877852 |42 |0,41 |0,95105654 |67 |0,66 |-0,5877853 |92 |0,91 |-0,8910065 |

|18 |0,17 |0,95105649 |43 |0,42 |-0,5877852 |68 |0,67 |0,30901693 |93 |0,92 |-0,5877853 |

|19 |0,18 |-0,9510565 |44 |0,43 |-0,5877853 |69 |0,68 |0,95105649 |94 |0,93 |-0,1564345 |

|20 |0,19 |0,58778532 |45 |0,44 |0,95105649 |70 |0,69 |0,80901704 |95 |0,94 |0,30901695 |

|21 |0,2 |-8,616E-08 |46 |0,45 |9,6924E-08 |71 |0,7 |7,5386E-08 |96 |0,95 |0,70710675 |

|22 |0,21 |-0,5877852 |47 |0,46 |-0,9510565 |72 |0,71 |-0,8090169 |97 |0,96 |0,9510565 |

|23 |0,22 |0,95105649 |48 |0,47 |0,58778517 |73 |0,72 |-0,9510565 |98 |0,97 |0,98768835 |

|24 |0,23 |-0,5877853 |49 |0,48 |0,58778534 |74 |0,73 |-0,3090171 |99 |0,98 |0,80901703 |

|25 |0,24 |0,9510565 |50 |0,49 |-0,9510565 |75 |0,74 |0,58778519 |100 |0,99 |0,45399055 |

Tabela-3.1 Valores de uma série não estacionária

A Figura-3.3 é a representação gráfica de uma série não estacionária obtida a partir dos dados da Tabela-3.1.

[pic]

Figura-3.3 Plotagem dos dados da série não estacionária da Tabela-3.1

Na Figura-3.4[5] temos a aplicação da TW sobre a série não estacionária da Tabela-3.1.

As ondaletas são localizadas no tempo (ou espaço), contrariamente do que ocorre com as funções trigonométricas. Esse comportamento torna-as ideais para analisar sinais não estacionários, contendo transitoriedades e estruturas tipo fractais. Bases de Fourier são localizadas em freqüência, mas não no tempo: pequenas mudanças em algumas das observações podem provocar mudanças em todas as componentes de uma expansão de Fourier, o que não acontece com uma expansão em série de ondaletas [Morettin/1999].

[pic]

Figura-3.4 Transformada wavelet da série não estacionária mostrada na Figura-3.3

4. Modelos ARIMA e Abordagem de Box e Jenkins

Durante a década de 1960 os professores George E. P. Box e Gwilym M. Jenkins escreveram diversos trabalhos sobre a teoria de controle e análise de séries temporais. Em 1970 publicaram o livro Time Series Analysis, forecasting and control apresentando uma metodologia para a análise de séries temporais e em 1976 foi lançada a versão revisada desse livro e que normalmente é a mais mencionada, o grande mérito desse trabalho foi reunir as técnicas existentes numa metodologia para construir modelos que descrevessem com precisão e de forma parcimoniosa o processo gerador da série temporal, proporcionando dessa forma previsões acuradas de valores futuros.

A metodologia de Box-Jenkins estima modelos de séries temporais da forma:

[pic] (4.1)

Nesta equação temos que o termo [pic] representa uma constante no modelo estimado, [pic] até [pic]são parâmetros que ajustam os valores passados de [pic] do instante imediatamente anterior até o mais distante representado por p. Os valores de [pic] representam uma seqüência de choques aleatórios e independentes uns com os outros, [pic] é uma porção não-controlável do modelo é chamado normalmente de ruído branco. Os parâmetros [pic] até [pic] possibilitam escrever a série em função dos choques passados. Em geral cada [pic] é considerado como tendo distribuição normal, média zero, variância constante e não-correlacionados. Em linguagem estatística, considerando que [pic] denota a média teórica do valor de x, a seqüência [pic] é considerada um processo ruído branco se para cada período de tempo t tivermos: (i)[pic], média zero; (ii)[pic], variância constante; (iii) [pic] [pic], covariância nula para todo valor de s.

A equação (4.1) representa um modelo denominado como autoregressivo integrado de média móvel, ou simplesmente ARIMA. Podemos escrever a equação (1) também com o seguinte formato: [pic], sendo [pic]. Chamamos de modelo autoregressivo quando podemos escrever uma série temporal na forma [pic], ou seja a série[pic] é escrita a partir dos seus valores passados. Escrevendo a série em termos dos seus choques aleatórios temos o modelo de média móvel, ou seja [pic], onde [pic].

Agora considere a série, [pic] quando [pic] e [pic] esse modelo é conhecido como passeio aleatório ou random walk, uma das características desse modelo é violar a condição de estacionariedade.

Um modelo é estacionário se para todo t e t-s tivermos: (i)[pic], média constante; (ii) [pic], variância constante; (iii) [pic]

[pic], covariância constante.

Muitas vezes para tornar uma série estacionária precisamos utilizar um recurso chamado diferenciação usando o operador [pic], sendo que [pic] e [pic]. Quando [pic] é uma série temporal I(d) e depois de diferenciar d vezes ela pode ser modelada usando um modelo AR(p), este modelo para [pic] pode ser escrito como [Franses/1998]:

[pic], t=p+d, p+d+1, ..., n (4.2)

O modelo representado por (4.2) normalmente é abreviado por ARI(p,d), ou seja autoregressivo de ordem p e integrado de ordem d. Quando uma série temporal apresenta uma tendência provavelmente ela poderá ser representada por um modelo integrado ARI, ARIMA ou IMA.

É importante destacar que os modelos ARIMA não apresentam especificidade gráfica, somente plotando a série temporal não é possível identificar qual o modelo que a representa.

Para que possamos determinar qual o modelo da família ARIMA que melhor representa a série e que poderá ser utilizado para fazer as previsões, podemos seguir as seguintes etapas [Yim/2001]:

|Identificação do |( |Estimação |( |Verificação ou diagnóstico |( |Previsão |

|Modelo | | | | | | |

Na etapa de identificação queremos saber:

| |AR | |p |

| |MA |Qual a ordem do modelo, ou seja quais |q |

|[pic] |ARMA |os valores de |p,q |

| |ARIMA | |p,d,q |

| |[pic] | | |

Na identificação dos modelos são utilizados dois recursos : as funções de auto-correlação (FAC) e as funções de auto-correlação parciais (FACP). A função de auto-correlação (FAC) de uma série [pic] é definida por [pic], onde [pic] é a auto-covariância de k-ésima ordem de [pic], ou seja

[pic], k = ..., -2,-1,0,1,2,... (4.3)

Dada a equação (4.3) podemos verificar que [pic], [pic] e que [pic]. A FAC é útil para caracterizar modelos ARMA, um exemplo simples é a série ruído branco [pic] para a qual [pic] e [pic] para todo [pic]. Para o modelo AR(1) dado por [pic], t=2,3,...,n podemos escrever que [pic]. Para que o processo AR(1) seja convergente necessitamos [pic], sendo assim a esperança de [pic] pode ser escrita como [pic]. Para calcular a FAC do processo AR(1) vamos iniciar calculando a variância [pic], que pode ser escrita alternativamente como [pic]. Sabemos que [pic]dessa forma a expressão da variância pode ser simplificada para [pic]. A auto-covariância para uma série temporal AR(1) é dada por [pic], com isso temos que o primeiro valor da FAC é [pic]. Para calcular todos os valores [pic] precisamos considerar a seguinte expressão para o modelo AR(1) [pic] o que resulta em [pic]. Como [pic] a FAC é exponencialmente declinante.

Para calcular a FACP podemos utilizar o sistema de equações de Yule-Walker:

|Para a FACP de primeira ordem temos que [pic] |[pic] |

|e para a FACP de segunda [pic] | |

A partir da terceira ordem podemos utilizar a recursão:

[pic], sendo k=3,4,5,...

Para um modelo AR(1) determinamos [pic] a partir da primeira auto-regressão e achamos [pic] na segunda auto-regressão teremos que [pic] e assim por diante tendo que para todos os outros valores [pic]. Portanto, no modelo AR(1) temos apenas [pic], para k > 1 [pic]. Generalizando para um modelo AR(p) teremos [pic] para k [pic]p e [pic] nos casos k > p, ou seja a FACP é truncada na ordem p. Resumidamente a Tabela-1 apresenta o comportamento das funções de auto-correlação para os modelos ARMA [Yim/2001].

|Modelo |FAC |FACP |

|AR |declinante |truncada em p |

|MA |truncada em q |declinante |

|ARMA |declinante |declinante |

Tabela-4.1 Comportamento da FAC e da FACP para os modelos ARMA

Na Figura-4.1 vemos os possíveis padrões de comportamento da FAC e da FACP para o modelo AR(1).

Figura-4.1 Funções de autocorrelação FAC e FACP de um modelo AR(1)

Na etapa de estimação precisamos estimar os parâmetros [pic]´s do modelo AR, os parâmetros [pic]´s do modelo MA e a variância do erro [pic]. A estimação pode ser feita utilizando-se o método dos mínimos quadrados ou máxima verosimilhança. A série temporal [pic] pode ser escrita como um modelo ARIMA(p,d,q) se esta série for não-estacionária podemos aplicar o operador diferença nessa série para torna-la estacionária na média, escrevendo uma nova série [pic], por exemplo [pic]. O modelo a partir de [pic] permite que possa escrever a série diferenciada com a amostra de dados como sendo [pic]. De forma abreviada [pic], onde B é o operador backward, isolando o termo erro ficamos com [pic]. Para realizar a estimação pelo método dos mínimos quadrados devemos minimizar [pic]. No caso da estimação por máxima verosimilhança necessitamos da hipótese de normalidade sobre a distribuição de [pic], ou seja [pic] e a função que será otimizada é [pic]. Depois da etapa de estimação é necessário realizar a verificação ou diagnóstico que compreende: a verificação dos parâmetros estimados, análise dos resíduos e análise dos critérios de informação. Os critérios de informação mais utilizados são o Akaike information criterion (AIC) e o Schwartz Bayesian criterion (SBC), calculados como: AIC = [pic] e SBC = [pic], onde T é o número de observações usadas. O SBC também é conhecido como Bayesian information criterion (BIC). Idealmente, o AIC e o SBC deverão ser os menores possíveis podendo assumir valores negativos, sendo que ambos medem o quanto o modelo estimado se ajusta aos dados.

Na etapa final, a de previsão, dada uma série [pic]queremos prever os valores [pic],[pic] até [pic]. O interesse agora está concentrado em encontrar o previsor ótimo [pic], ou seja aquele que minimiza o erro quadrático médio da previsão: [pic].

Quando fazemos previsão temos o problema da perda de informações a medida que avançamos em tentar prever os valores mais adiante no tempo. Isto pode ser visto claramente usando-se, por exemplo um modelo ARMA(2,3) dado por [pic]. Atualizando um período ficamos com [pic] para obtermos o previsor de [pic] um passo a frente, denotado por [pic] precisamos tomar a esperança condicionada até o instante T da série atualizada, o que resulta em [pic] sendo que o valor zero nessa expressão representa uma perda de informação, devido ao conjunto de informações estar condicionado até o instante T (ou seja: [pic]).

Continuando desta maneira, na determinação do valor da série para dois passos à frente teremos a seguinte expressão [pic], o previsor condicionado às informações até o instante T é obtido aplicando o operador esperança condicionada em ambos os lados desta equação:[pic] que resulta em [pic], nota-se que a medida que avançamos em tentar prever o futuro, ou seja determinar o valor da série s passos à frente, perdemos informações referentes aos choques aleatórios e a nossa previsão passa a ser uma função de outra previsão, isso quer dizer que o poder préditivo vai ficando mais pobre.

5. Modelos Estruturais para Séries de Tempo

Uma outra técnica alternativa à metodologia de Box e Jenkins para análise de séries temporais foi desenvolvida por Andrew Harvey. Nesse caso a série [pic] considerada como sendo composta por: tendência [pic], ciclo [pic], sazonalidade [pic]e erro [pic].

[pic] (5.1)

Harvey faz aplicação do filtro de Kalman para estimar os componentes [pic] e [pic].

O filtro de Kalman é um algoritmo computacional iterativo desenvolvido para realizar previsões e prever variâncias de modelos de séries de tempo. Pode ser aplicado para qualquer modelo de série de tempo que possa ser escrita na forma de espaço de estado. Quase todos os modelos convencionais de séries de tempo podem ser escritos nesta forma [Harvey/1989].

A forma de espaço de estado é definida a partir das equações (5.2), (5.3), (5.4) e (5.5) e das hipóteses (5.a) e (5.b):

[pic] [pic] e [pic] (5.2)

Na Equação-5.2, [pic] representa o vetor de estado que pode ser observável ou não. E [pic]relaciona y ao vetor de estado.

[pic] [pic] (5.3)

A Equação-5.4 é chamada de equação de transição é fornece a evolução do vetor de estado ao longo do tempo.

[pic] (5.4)

[pic] é uma matriz [pic].

[pic] [pic] (5.5)

Hipótese (5.a): o vetor de estado inicial [pic] tem média [pic] e matriz de covariância [pic].

Hipótese (5.b): Os termos aleatórios [pic] e [pic] são não-correlacionados entre si e não-correlacionados com o vetor de estado inicial.

O software Structural Time Series Analyser, Modeller and Predictor (Stamp) foi desenvolvido especificamente para trabalhar com o modelamento estrutural de séries temporais.

A técnica de análise estrutural é uma alternativa para resolver alguns problemas da abordagem dos modelos ARIMA: a necessidade de estacionariedade, nem todas as séries podem ser diferenciadas e quando diferenciamos uma série perdemos algumas características interessantes da série; com relação ao processo de identificação pela FAC e FACP, caso a série tenha uma amostra pequena de dados e estes apresentem sazonalidade os modelos identificados podem ser precários com relação ao seu poder de previsão.

6. Processamento Temporal utilizando Redes Neurais Artificiais

Uma rede neural é um processador maciçamente paralelamente distribuído de unidades de processamento simples, que tem a propensão natural para armazenar conhecimento experimental e torná-lo disponível para o uso. Ela se assemelha ao cérebro em dois aspectos: (1) o conhecimento é adquirido pela rede a partir de seu ambiente através de um processo de aprendizagem; (2) forças de conexões entre neurônios, conhecidos como pesos sinápticos, são utilizados para armazenar o conhecimento adquirido [Haykin/1999].

Uma das principais aplicações das redes neurais artificiais (RN) tem sido no reconhecimento de padrões temporais e previsão, para isso é utilizada uma arquitetura de rede denominada como rede neural recorrente. A característica da RN recorrente é possuir um ou mais laços de realimentação. A Figura-1 representa uma RN recorrente para aproximação de um modelo ARMA não-estacionário conhecido como NARMA(p,q) [Drossu/1996].

Figura-6.1 Rede neural recorrente para predição de um processo não-estacionário NARMA(p,q)

Para o modelo representado na Figura-6.1 temos que a saída [pic] é dada pela equação-6.1

[pic] (6.1)

sendo que f representa uma função não-linear suave, [pic] são os pesos entre os neurônios da camada intermediária (ou escondida) e de saída, [pic] são os pesos entre as entradas externas e a camada escondida, [pic] são os pesos entre a primeira camada de neurônios com entradas de retro-alimentação (recorrentes) e a camada de neurônios escondidos, [pic] são os termos que modificam as saídas dos neurônios da camada escondida (também chamados de bias ou viés) e [pic]é o bias do neurônio de saída.

A grande vantagem de se usar RN está na sua capacidade de trabalhar com não-linearidade. De forma bem simplificada, as séries temporais econômicas podem ser chamadas de não-lineares quando grandes choques tem um impacto maior do que pequenos choques no sentido de que o impacto de um choque não é proporcional a sua extensão [Franses/1998]. Tem-se provado que as redes neurais apresentam características de aproximadores universais, isso quer dizer uma rede neural pode capturar qualquer tipo de comportamento, não importando o quão complexo ele seja. No entanto, a maior fraqueza do modelamento neural é a falta de procedimentos estabelecidos para realizar testes para modelos não especificados e testes de significância estatística para os vários parâmetros que foram estimados [Refenes/1997].

7. Bibliografia

BOX, G. E. P. & JENKINS, G. M.. Time Series Analysis: forecasting and control. San Francisco, Holden-Day, 1976.

DROSSU, R. and OBRADOVIC, Z.. Rapid design of neural networks for time series prediction, IEEE vol.3, no.2, p78-89, 1996.

ENDERS, W. Applied econometric time series. Wiley, 1995.

FISCHER, S. Séries univariantes de tempo – metodologia de Box & Jenkins. Porto Alegre FEE, 1982.

FRANSES, P. H. Time Series models for business and economic forecasting, Cambridge, 1998.

HARVEY, A. C. Forecasting, structural time series models and the Kalman filter, 1989.

HAYKIN, S. Neural networks: a comprehensive foundation. Prentice Hall, 1999.

MORETTIN, P. A. Ondas e ondaletas: da análise de Fourier à análise de ondaletas. EDUSP, 1999.

REFENES, A. N., BURGESS, A.N. and BENTZ, Y. Neural networks in financial engineering: a study in metodology, IEEE vol.8, no. 6, November, 1997.

TORRENCE, C. and COMPO, G. A practical guide to wavelet analysis, Bulletin of the American Meteorological Society, v.79, no.1, p.61-78, January, 1998.

YIM, J. Previsão de Séries de Tempo: Modelos ARIMA, Modelos Estruturais e Redes Neurais Artificiais. Dissertação (Economia) - Universidade de São Paulo, 2001.

-----------------------

[1] Mestrando em administração de empresas pela Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo FEA/USP. Área: Métodos Quantitativos e Informática. Engenheiro Mecânico (Ênfase em Mecatrônica) pela Escola de Engenharia de São Carlos – EESC/USP. E-mail: mauriao@usp.br.

[2] Mestrando em administração de empresas pela Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo FEA/USP. Área: Política de Negócios e Economia de Empresas. E-mail: lpfavero@usp.br

[3] Agradecemos a colaboração do Prof. Dr. José O. Siqueira por todas as contribuições durante nossos estudos e em particular no desenvolvimento deste trabalho.

[4] As Figuras 2.2a e 2.2b foram construídas utilizando-se o software Matlab v6.5, as linhas de comando são:

t = 0:0.001:0.6;

x = cos(2*pi*10*t)+cos(2*pi*25*t)+cos(2*pi*50*t)+cos(2*pi*100*t);

plot(x)

ylabel(' Função x(t)')

xlabel('Tempo')

Y = fft(x,512);

Pyy = Y.* conj(Y) / 512;

f = 1000*(0:256)/512;

plot(f,Pyy(1:257))

[5] A Figura-3.4 foi construída utilizando-se o software Autosignal v1.6 da Systat.

-----------------------

[pic]

MA(q)

AR(p)

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

[pic]

1

9

6

3

[pic]

[pic]

[pic]

[pic]

0

0

1

[pic]

[pic]

0

9

6

[pic]

[pic]

3

0

................
................

In order to avoid copyright disputes, this page is only a partial summary.

Google Online Preview   Download