13.07.2015 Views

Comportamentos globais e locais de tempos de entrada curtos

Comportamentos globais e locais de tempos de entrada curtos

Comportamentos globais e locais de tempos de entrada curtos

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Comportamentos</strong> <strong>globais</strong> e <strong>locais</strong><strong>de</strong> <strong>tempos</strong> <strong>de</strong> <strong>entrada</strong> <strong>curtos</strong>Liliam Car<strong>de</strong>ño AceroTESE APRESENTADAAOINSTITUTO DE MATEMÁTICA E ESTATÍSTICADAUNIVERSIDADE DE SÃO PAULOPARAOBTENÇÃO DO GRAU DE DOUTOREM CIÊNCIASÁrea <strong>de</strong> concentração: EstatísticaOrientador: Miguel Natalio AbadiDurante o <strong>de</strong>senvolvimento <strong>de</strong>ste trabalho o autor recebeu auxílio financiero daCNPqSão Paulo, novembro 14 <strong>de</strong> 2007


<strong>Comportamentos</strong> <strong>globais</strong> e <strong>locais</strong><strong>de</strong> <strong>tempos</strong> <strong>de</strong> <strong>entrada</strong> <strong>curtos</strong>Este exemplar correspon<strong>de</strong> à redaçãofinal da tese <strong>de</strong>vidamente corrigidae <strong>de</strong>fendida por Liliam Car<strong>de</strong>ño Aceroe aprovada pela Comissão Julgadora.Banca examinadora:• Prof. Dr. Miguel Natalio Abadi (Orientador) - IMECC-UNICAMP• Prof. Dr. Pablo Augusto Ferrari - IME-USP• Prof. Dr. Jesús Enrique García - IMECC-UNICAMP• Profa. Dra. Denise Duarte Scarpa Magalhães Alves - UFMG• Prof. Dr. Benoit Saussol - CNRS


ResumoConsi<strong>de</strong>ramos um processo estacionário ergódico sobre um alfabeto A finito ou enumerável.Dada uma palavra fixa A n <strong>de</strong> tamanho n sobre este alfabeto, <strong>de</strong>finimos a funçãoτ(A n ) ∈ {1,...,n}, como a posição da primeira possível sobreposição da palavra.É sabido que τ(A n )/n converge quase certamente a 1 para sistemas ergódicos.Provamos a existência da função <strong>de</strong> gran<strong>de</strong>s <strong>de</strong>svios para τ(A n )/n. Conseguimosuma expressão explícita em termos das entropias generalizadas <strong>de</strong> Rényi. A existência<strong>de</strong>stas entropias é também <strong>de</strong>monstrada.Definimos T An como a primeira ocorrência <strong>de</strong> A n na realização do processo e consi<strong>de</strong>ramosλ(A n ) = P ( T An > τ(A n ) ∣ ∣A n ), sendo P a probabilida<strong>de</strong> do processo.Para processos com boas proprieda<strong>de</strong>s <strong>de</strong> mistura, existe c P > 0 (que só <strong>de</strong>pen<strong>de</strong><strong>de</strong> P) tal que λ(A n ) ∈ [c P , 1], para todo A n e todo n ∈ N. A diferença <strong>de</strong>sta situação,construímos um processo, com uma seqüência {A n } n∈N , tal que λ(A n ) → 0.Palavras-chave: Tempos <strong>de</strong> <strong>entrada</strong>, Tempos <strong>de</strong> retorno, Gran<strong>de</strong>s <strong>de</strong>svios, Entropia<strong>de</strong> Rényi, Sobreposição.i


AbstractWe consi<strong>de</strong>red stationary, ergodic process over an alphabet A.Let A n be a fixed word of size n over A. We <strong>de</strong>fined the function τ(A n ) ∈ {1,...,n},as the first possible overlapping position of the word.It is known that τ(A n )/n converges to 1 almost sure in ergodic systems.We proved the existence of a large <strong>de</strong>viation function for τ(A n )/n. We got its explicitexpression in terms of the generalized Rényi entropies. The existence of these entropiesis also shown.Further, let T An be the first occurrence of A n in a realization of the process, and<strong>de</strong>fine λ An = P ( T An > τ(A n )|A n)where P is the probability of the process.In processes with good properties of mixture, λ An ∈ [c P , 1], for all A n and n ∈ N,where c P is a strictly positive constant it is known that only <strong>de</strong>pending on P. Weconstructed one process with one sequence {A n } n∈N such that λ An → 0.Key words: Hitting times, Return times, Large <strong>de</strong>viation, Rényi entropy, Overlappingposition.ii


Agra<strong>de</strong>cimentosRegistro aqui meus agra<strong>de</strong>cimentos a Miguel Abadi pela sua orientação, disponibilida<strong>de</strong>e apoio incondicional durante todos os momentos <strong>de</strong>cisivos <strong>de</strong>ste trabalho.Aos professores Denise Duarte, Pablo Ferrari, Jesús García e Benoit Saussol poraceitarem compor a banca examinadora <strong>de</strong>sta tese.A todos os membros do Numec, meu agra<strong>de</strong>cimento pela amiza<strong>de</strong> e apoio.Estarei grata por sempre com os amigos que ganhei no IME, em particular comNevena, Diana, Claus, Raydonal, Sandra e Cristian.Estou em dívida com os meus amigos e colegas no Departamento <strong>de</strong> Matemáticasda Universida<strong>de</strong> <strong>de</strong> Antioquia em Colômbia, por me darem a oportunida<strong>de</strong> <strong>de</strong> estudar.Especialmente com Jairo Eloy, meu chefe e amigo.Agra<strong>de</strong>ço a todos os funcionários do IME, que com o seu trabalho contribuiramdireta ou indiretamente na realização <strong>de</strong> meu doutorado.Ao CNPq, pelo apoio financiero.Não tenho palavras para expressar o quanto agra<strong>de</strong>ço ao David. Ele, junto a suafamília, sempre me colaboraram para permitir culminar meus estudos e, especialmente,cuidaram com muito carinho <strong>de</strong> meus dois anjos durante este tempo <strong>de</strong> ausência. Aele <strong>de</strong>dico esta tese.iii


SumárioResumoAbstractAgra<strong>de</strong>cimentosiiiiiiI Noções prévias 31 Introdução 41.1 Introdução e motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 Comportamento Global . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Comportamento local . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Resultados Preliminares 82.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.2 Resultados anteriores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9II Resultados obtidos 133 Comportamento global: gran<strong>de</strong>s <strong>de</strong>svios. 143.1 Resultados obtidos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143.1.1 Limitantes superiores . . . . . . . . . . . . . . . . . . . . . . . . 153.1.2 Limitantes inferiores . . . . . . . . . . . . . . . . . . . . . . . . 183.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.3 Simulações. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Comportamento local: Tempos <strong>de</strong> Retorno. 254.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254.2 Condição para λ(A n ) → 0 . . . . . . . . . . . . . . . . . . . . . . . . . 264.2.1 Medida invariante . . . . . . . . . . . . . . . . . . . . . . . . . . 294.2.2 Medidas das palavras . . . . . . . . . . . . . . . . . . . . . . . . 314.3 Um caso que satisfaz as hipóteses do Teorema 3.1 . . . . . . . . . . . . 354.3.1 Medidas das palavras. . . . . . . . . . . . . . . . . . . . . . . . 374.3.2 {Xn} ∗ n≥0 é α-misturador. . . . . . . . . . . . . . . . . . . . . . 394.3.3 Velocida<strong>de</strong> <strong>de</strong> convergência da seqüência {α(.)}. . . . . . . . . 404.4 Um caso que não satisfaz as hipóteses do Teorema 3.1 . . . . . . . . . . 421


5 Entropias 445.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445.2 Sobre a convexida<strong>de</strong> <strong>de</strong> H R e M(δ) . . . . . . . . . . . . . . . . . . . . 47Apêndice Recorrência 50Perguntas em aberto 53Referências Bibliográficas 552


Parte INoções prévias3


Capítulo 1Introdução1.1 Introdução e motivaçãoO famoso Teorema <strong>de</strong> Recorrência <strong>de</strong> Poincaré diz que em um processo estacionárioergódico, todo evento <strong>de</strong> medida positiva reaparece um número infinito <strong>de</strong> vezes, quasecertamente. Este é um resultado qualitativo, no sentido que não <strong>de</strong>screve <strong>de</strong> quemaneira essas reaparições ocorrem. Des<strong>de</strong> então, um problema amplamente estudadona literatura é o comportamento quantitativo <strong>de</strong>sses retornos.Em particular, duas quantida<strong>de</strong>s amplamente estudadas sob boas condições <strong>de</strong> perda<strong>de</strong> memória em um processo estocástico, são as distribuições dos <strong>tempos</strong> <strong>de</strong> chegada etempo <strong>de</strong> retorno <strong>de</strong> uma seqüência fixa.Especificamente,T An (x) = inf{k ≥ 1|X k+n−1k= a n−10 },é o tempo <strong>de</strong> <strong>entrada</strong> do processo {X n } na seqüência A n , on<strong>de</strong> A n = (a 0 ,...,a n−1 ) e xé uma realização do processo.Quando o processo tem por condição inicial a própria palavra A n , a distribuição échamada <strong>de</strong> tempo <strong>de</strong> retorno, isto é, P(T An > t|A n ).Uma motivação importante para o estudo <strong>de</strong>stas distribuições é a relação <strong>de</strong>las comuma terceira distribuição: o tempo <strong>de</strong> repetição no processo da primeira seqüência nãofixa.Definindo comoR n = inf{k ≥ 1|X k+n−1k= X n−10 },<strong>de</strong> forma que P(R n > t) = ∑ A nP(A n )P(T An > t|A n ). Desta forma o comportamento<strong>de</strong> T An <strong>de</strong>termina o comportamento <strong>de</strong> R n .A importância <strong>de</strong> R n foi mostrada por Wyner e Zyv [19] e Orstein e Weiss [16], on<strong>de</strong>se prova quelog R nlim = h,n→∞ n4


em probabilida<strong>de</strong> e quase certamente, respectivamente, on<strong>de</strong> h é a entropia do processo.Sob boas condições <strong>de</strong> mistura, Galves e Schmitt [15] provaram que, para o tempo<strong>de</strong> <strong>entrada</strong>,P(T An > t) ≈ e −λ(An)P(An)t , (1.1)on<strong>de</strong> P(A n ) é a probabilida<strong>de</strong> da palavra A n e λ(A n ) é um certo parâmetro.Abadi e Vergne [4] mostraram que, para o tempo <strong>de</strong> retorno,{λ(A n )e −λ(An)P(An)t , se t ≥ t 0 (A n )P(T An > t|A n ) ≈1, se t < t 0 (A n ).(1.2)Por sua vez, o parâmetro λ(A) está <strong>de</strong>finido a partir <strong>de</strong> outra quantida<strong>de</strong>, o primeiroinstante <strong>de</strong> sobreposição da palavra. Esta quantida<strong>de</strong> é o objeto <strong>de</strong> estudo <strong>de</strong>sta tesee está <strong>de</strong>finida da seguinte maneira.Dado A n = (a 0 ,...,a n−1 ), <strong>de</strong>finimos o primeiro instante <strong>de</strong> sobreposição da palavraA n comoτ(A n ) = min{k ≥ 1|a n−k−10 = a n−1k}, (1.3)e τ(A n ) = n, no caso <strong>de</strong> em que não exista k que satisfaça (1.3).Esta <strong>de</strong>finição, que parece completamente combinatorial, tem uma forma equivalente<strong>de</strong>s<strong>de</strong> o ponto <strong>de</strong> vista evolutivo: ela po<strong>de</strong> ser <strong>de</strong>finida como o ínfimo <strong>de</strong> T An (x) on<strong>de</strong>esse ínfimo é tomado sobre todas as realizações x do processo, isto é,τ(A n ) = infx∈Ω T A n(x).1.2 Comportamento GlobalConsi<strong>de</strong>ramos a proporção τ(A n )/n. Saussol, Troubetskoy e Vaienti [17] e Afraimovich,Chazottes e Saussol [5] provaram que, para um processo ergódico com entropia positivaτ(A n )nq.c.−→ 1.Des<strong>de</strong> outro ponto <strong>de</strong> vista, Collet, Galves e Schmitt [8] provaram, para processosψ-misturadores (ver <strong>de</strong>finição Capítulo 2), queP ( A n : τ(A n )/n ≤ 1/3 ) ≤ ce −c 1n .Desigualda<strong>de</strong> estendida por Abadi [1] para processos φ−misturadores.É natural se perguntar então sobre a lei dos gran<strong>de</strong>s <strong>de</strong>svios <strong>de</strong> τ(A n )/n.5


Recentemente, Abadi e Vaienti [3] provaram que para processos ψ-misturadores coma condição ψ(0) < 1, existe1limn→∞ n log P( τ(A n )n≤ (1 − δ) ) , (1.4)para todo δ ∈ (0, 1) e que este limite está relacionado às entropias <strong>de</strong> Rényi, H R (para<strong>de</strong>finição e proprieda<strong>de</strong>s, ver Capítulo 5).Nesta tese calculamos o limite (1.4) para uma família <strong>de</strong> processos que satisfaz umacondição bem mais geral que a <strong>de</strong> ψ-misturadora. Mais ainda, esta condição não édo tipo misturador: ela não tem a ver com o <strong>de</strong>caimento das correlações do processo.Apenas com as probabilida<strong>de</strong>s condicionais (a um passado imediato).Em palavras, a condição diz que a probabilida<strong>de</strong> <strong>de</strong> uma palavra A n , dada umapalavra B no passado imediato, <strong>de</strong>crece assintoticamente com a mesma or<strong>de</strong>m exponencialque a probabilida<strong>de</strong> <strong>de</strong> A n quando n → ∞. (ver Hipóteses 3.2 e 3.3).O limite (1.4) está <strong>de</strong>finido apartir das entropias <strong>de</strong> Rényi, H R (β), β ∈ R. Estasentropias estão <strong>de</strong>finidas, por sua vez, como um limite e sua existência, a princípio, nãoestá garantida. Sob as mesmas condições, provamos também a existência <strong>de</strong>ste limite(Capítulo 5).Explicitamente calculamos o limite (1.4) como uma função M(δ), linear sobre cada1intervalo [ , 1], n ∈ N, contínua, crescente, que interpola a H n+1 n R nos pontos da forma1/n.1.3 Comportamento localFixada uma palavra A n , temos a quantida<strong>de</strong> τ(A n ). Agora consi<strong>de</strong>ramos a palavra<strong>de</strong> comprimento n + τ(A n ), A n+τ(An), que consiste em concatenar A n com os últimosτ(A n ) símbolos <strong>de</strong> A n .Por exemplo, seja A 8 = aaaabbaa então τ(A 8 ) = 6 e estamos interessados na palavra<strong>de</strong> comprimento 14 dada porA{ }}8{A 14 = aaaabbaaaabbaaA 14 = aaaabbaaaabbaa } {{ }A 8Desta forma, A n+τ(An) consiste em duas ocorrências consecutivas <strong>de</strong> A n .Consi<strong>de</strong>ramos a probabilida<strong>de</strong> <strong>de</strong> isto acontecer começando com A n ;P(A n+τ(An)|A n ) = P(T An = τ(A n )|A n ).6


Do ponto <strong>de</strong> vista físico, esta quantida<strong>de</strong> representa a probabilida<strong>de</strong> <strong>de</strong> retornarimediatemente a A n .O parâmetro λ(A n ) acima referido é <strong>de</strong>finido pela probabilida<strong>de</strong> <strong>de</strong> sair imediatamente<strong>de</strong> A n :λ(A n ) = P ( T An > τ(A n )|A n).Galves e Schmitt [15] e Abadi [1] mostram que existe c P > 0 tal que λ(A n ) ∈ [c p , 1].É trivial observar que sob as mesmas condições, λ(A n ) → 1 quase certamente.Por outro lado, lembramos que o tempo <strong>de</strong> <strong>entrada</strong> satisfaz (1.1) e o tempo <strong>de</strong> retornosatisfaz (1.2). Portanto, concluímos que E(T An ) ≈ 1/(λ(A n )P(A n )) e E(T An |A n ) ≈1/P(A n ).A última expressão é uma versão mais fraca que o Lema <strong>de</strong> Kac, on<strong>de</strong> o parâmetroλ(A n ) <strong>de</strong>saparece. Isto parece ter induzido ao pouco estudo da quantida<strong>de</strong> λ(A n ).Porém, sua importância aparece quando consi<strong>de</strong>ramos a esperança do tempo <strong>de</strong> <strong>entrada</strong>(e não <strong>de</strong> retorno) e especialmente quando consi<strong>de</strong>ramos ambas distribuições.Novamente, <strong>de</strong>s<strong>de</strong> o ponto <strong>de</strong> vista físico, E(T An ) ≈ 1/(λ(A n )P(A n )), nos diz que,tipicamente, o tempo <strong>de</strong> <strong>entrada</strong> é da or<strong>de</strong>m <strong>de</strong> 1/P(A n ) e λ(A n ) aparece apenas comoum fator escalar.Uma pergunta surge imediatemente: Sempre temos que λ(A n ) ≥ c P > 0 ou po<strong>de</strong>ríamoster λ(A n ) → 0 quando n → ∞?Respon<strong>de</strong>mos a esta pergunta construindo uma família <strong>de</strong> processos que contemuma seqüência <strong>de</strong> palavras A n , n ∈ N tal que λ(A n ) −−−→n→∞ 0.Mais ainda, nesta mesma família obtemos casos on<strong>de</strong> λ(A n )/P(A n ) converge a +∞ou 0 ou uma constante positiva. Desta forma, a or<strong>de</strong>m do tempo <strong>de</strong> <strong>entrada</strong> po<strong>de</strong> estar<strong>de</strong>terminada por λ(A n ) e não por P(A n ).Observamos ainda que λ(A n ) −−−→n→∞0 significa fisicamente que quanto mais tempoo processo passa no estado A n , mais ten<strong>de</strong> a ficar nele. Mesmo assim, esse processo éα−misturador e seus estados são recorrentes positivos.7


Capítulo 2Resultados Preliminares2.1 DefiniçõesConsi<strong>de</strong>raremos processos estocásticos estacionários sobre alfabetos finitos.Denotemos por C um alfabeto finito e Ω = C Z .Para cada x = {x m } m∈Z ∈ Ω e m ∈ Z, seja X m : Ω → C a m-projeção, assim:X m (x) = x m .Denotamos por S : Ω → Ω o operador translação, tal que (S(x)) m = x m+1 .O cilindro {X 0 = a 1 ,X 1 = a 2 ,...,X n−1 = a n } será <strong>de</strong>notado por {X n−10 = a n 1}.Dizemos que um subconjunto C n ∈ C n é uma palavra secom a i ∈ C, i = 1,...,n.C n = {X n−10 = a n 1},Vamos consi<strong>de</strong>rar uma medida <strong>de</strong> probabilida<strong>de</strong> invariante p na σ-álgebra F geradapelas palavras.Dizemos que o processo (Ω, F,p) é ψ-misturador se a seqüência {ψ(l)} l∈N <strong>de</strong>finida porp(A ∩ B)∣ ∣∣sup ∣A ∈ F0n p(A)p(B) − 1 = ψ(l),B ∈ Fn+l+1∞n ≥ 0converge a 0 quando l → ∞. F m n <strong>de</strong>nota a σ-álgebra gerada pelas palavras {X m n = a m n }.Dizemos que o processo (Ω, F,p) é α-misturador se a seqüência {α(l)} l∈N <strong>de</strong>finida por∣sup ∣p(A ∩ B) − p(A)p(B) ∣ = α(l),A ∈ F0nB ∈ Fn+l+1∞n ≥ 08


converge a 0 quando l → ∞.Para cada palavra C n ∈ C n <strong>de</strong>finamos o seu período τ(C n ), ou primeiro instante dasobreposição da palavra C n , comoτ(C n ) = min{k ∈ {1,...,n} : C n ∩ S −k C n ≠ ∅}.Para todo n ∈ N e todo 0 < δ < 1, <strong>de</strong>finamos os conjuntoseon<strong>de</strong> ⌊.⌋ <strong>de</strong>nota a função parte inteira.C ′ δ,n = {C n ∈ C n : τ(C n ) = ⌊δn⌋},C δ,n = {C n ∈ C n : τ(C n ) ≤ ⌊δn⌋},Para qualquer inteiro x ≤ n/2 ∈ N <strong>de</strong>notamos por B n (x) o conjunto <strong>de</strong> C ∈ C n tal queC = (a i1 ,...,a} {{ix ,a}i1 ,...,a ix ,...,a} {{ }i1 ,...,a ix ,a} {{ }i1 ,...,a ir ) ,} {{ }1 2⌊n/x⌋ 1com 0 ≤ i r < i x . Para x ≥ n/2, B n (x) é o conjunto <strong>de</strong> C ∈ C n tal queC = (a i1 ,...,a} {{ir ,a}ir+1 ,...,a ix ,a i1 ,...,a ir ).} {{ } } {{ }121Um dos resultados <strong>de</strong>sta tese apresenta relações entre as probabilida<strong>de</strong>s dos conjuntosC δ,n e C δ,n ′ com a entropia generalizada <strong>de</strong> Rényi. A sua <strong>de</strong>finição e algumas proprieda<strong>de</strong>sserão introduzidas no Capítulo 5.Definição 2.1. Para qualquer β ∈ R, a Entropia Generalizada <strong>de</strong> Rényi <strong>de</strong> umamedida p, <strong>de</strong>notada por H R (β), é <strong>de</strong>finida porquando o limite existe.2.2 Resultados anteriores1H R (β) = − limn→∞ nβ log ∑p(C n ) β+1 ,C n∈C nNo artigo [3], Abadi e Vaienti estabelecem limites exponenciais para as medidas dosconjuntos C δ,n e C δ,n ′ . Inicialmente mostraram, para processos ψ-misturadores, que ográfico <strong>de</strong>sta função limite (<strong>de</strong>pen<strong>de</strong>ndo <strong>de</strong> δ), está contido em um triângulo <strong>de</strong>terminadopelas retas −γ p (1 −δ), −h p (1 −δ) e −γ p , on<strong>de</strong> h p <strong>de</strong>nota a entropia métrica <strong>de</strong> pe a constante γ p é o supremo entre as constantes κ tais que, para todo n ∈ N e K > 0,p(C n ) ≤ Ke −κn .As seguintes duas proposições mostram esses resultados. (Ver Figura 2.1)9


Proposição 2.1. Seja p uma medida ψ-misturadora. Tomemos δ ∈ (0, 1). Então,lim sup 1 n log p(C δ,n) ≤ −γ p (1 − δ).Se ψ(0) < 1, entãolim inf 1 n log p(C δ,n) ≥ −h p (1 − δ).A seguinte proposição consi<strong>de</strong>ra medidas <strong>de</strong> seqüências <strong>de</strong> palavras que convergem àmaior possível para palavras <strong>de</strong> período pequeno.Proposição 2.2. Seja p uma medida ψ-misturadora. Se existe uma seqüência {P n } n∈N<strong>de</strong> palavras em C n tal queeEntão,limn→∞ −1 n log p(P n) = γ pτ(P n )limn→∞ n= 0.lim inf 1 n log p(C δ,n) ≥ −γ p .O teorema principal do artigo [3] estabelece a relação entre a medida <strong>de</strong> C δ,n e a entropiageneralizada <strong>de</strong> Rényi. Observe que, além da hipótese <strong>de</strong> que o processo sejaψ-misturador, é preciso que ψ(0) < 1. Isto para garantir a existência do limitanteinferior.Teorema 2.1. Seja p uma medida ψ-misturadora, com ψ(0) < 1 e tal que para qualquerβ ∈ N a entropia generalizada <strong>de</strong> Rényi existe. Então, para cada δ ∈ (0, 1], o limiteexiste. Mais precisamente,1M(δ) = limn→∞ n log p(C δ,n),1. Para todo 1 2 ≤ δ ≤ 1, M(δ) = −H R (1)(1 − δ).2. Para todo 0 < δ ≤ 1 2 ,M(δ) = −⌊ 1 δ ⌋( 1 − δ⌊ 1 δ ⌋) H R (⌊ 1 δ ⌋) − ( δ + δ⌊ 1 δ ⌋ − 1)( ⌊ 1 δ ⌋ − 1) H R (⌊ 1 δ ⌋ − 1)Para enten<strong>de</strong>r a função M(δ), observemos que quando δ = 1 , k ∈ N, temos quekM(δ) = −H R (k − 1) k−11. E para valores <strong>de</strong> δ ∈ ( , 1 ), M(δ) é a função linear <strong>de</strong> δk k+1 kque interpola os pontos −H R (k) k e −H k+1 R(k − 1) k−1.kA Figura 2.1 ilustra esse fato para δ = 1, 1 , 1. Também mostra como as funções M(δ)4 2e a entropia <strong>de</strong> Rényi estão contidas no triângulo <strong>de</strong>terminado pelas retas −γ p (1 − δ),−h p (1 − δ) e −γ p .Os seguintes lemas, tomados <strong>de</strong> Abadi e Vaienti [3], serão úteis na prova do resultadodo limitante superior, no próximo capítulo.10


(0,0)(1,0)−γ p(1−δ)M(δ)(0,−γ p)G(δ)1/4 1/2−γ p−h p(1−δ)(0,−h p)δFigura 2.1: Ilustração do Teorema 2.1 sendo G(δ) = (δ − 1)H R ( 1 δ − 1).Lema 2.1. Sejam m e n inteiros positivos tais que 0 ≤ m < n 2 . Então,m⋃B n (j) =j=1m⋃j=⌊ m 2 ⌋ B n (j).Prova.Para qualquer j ∈ Z tal que 1 ≤ j ≤ m 2 , po<strong>de</strong>mos escrever m = ⌊m j ⌋j + r jcom 0 ≤ r j ≤ m. Então temos que 2m2 ≤ ⌊m ⌋j ≤ m.jIsto é, para cada inteiro j ∈ [1, m] existe um inteiro i = 2 ⌊m⌋j ∈ j [m,m].2Portanto,m⋃m⋃B n (j) = B n (j).j=1 j=⌊ m 2 ⌋□Lema 2.2. Consi<strong>de</strong>re o conjunto {c i ∈ IR + : 1 ≤ i ≤ n,n ∈ N}. Então,1limn→∞sempre que os limites existem.n log n∑i=11c i = lim log maxn→∞ n {c i},1≤i≤n11


Prova.Para todo c i > 0, i = 1,...,n,max {c i} ≤1≤i≤nn∑i=1c i ≤ n max1≤i≤n {c i}.Tomando logaritmo em cada um dos termos <strong>de</strong>ssa <strong>de</strong>sigualda<strong>de</strong>, <strong>de</strong>pois dividindo porn e tomando o limite, obtemos o resultado.□12


Parte IIResultados obtidos13


Capítulo 3Comportamento global: gran<strong>de</strong>s<strong>de</strong>svios.Neste capítulo vamos mostrar resultados que validam as relações apresentadas nocapítulo anterior, relaxando as hipóteses em uma direção. Também, vamos mostraralgumas simulações que mostram que esses resultados são válidos sob hipóteses maisfracas, ainda em uma outra direção.3.1 Resultados obtidos.Definição 3.1. Seja M uma função crescente, contínua, linear em cada intervalo1[ , 1 ], n ∈ N, tal que para todo δ ∈ (0, 1],n+1 n{1−H R (1)(1 − δ) seM(δ) =2 ≤ δ ≤ 1,−⌊ 1 δ ⌋( 1 − δ⌊ 1 δ ⌋) H R (⌊ 1 δ ⌋) − ( δ + δ⌊ 1 δ ⌋ − 1)( ⌊ 1 δ ⌋ − 1) H R (⌊ 1 δ ⌋ − 1) se 0 < δ ≤ 1 2 .Observação 3.1. A existência da função M esta dada pela existência do limite que <strong>de</strong>finea Entropia generalizada <strong>de</strong> Rényi (Definição 2.1). No Capítulo 5 (Proposição 5.1)mostramos que, sob as hipóteses do Teorema 3.1, se garante a existência da Entropiageneralizada <strong>de</strong> Rényi.Teorema 3.1. Seja p uma medida tal que, para A ∈ C n e B ∈ C m , com n,m ∈ N ep(A),p(B) > 0,1f ( min{m,n} )p(A)p(B) ≤ p(A ∩ S−n B) ≤ f ( min{m,n} ) p(A)p(B), (3.1)on<strong>de</strong> f uma função crescente que satisfazEntão, para cada δ ∈ (0, 1],log f(k)limk→∞ k14= 0.


1. lim n→∞1n log p( B n (⌊δn⌋) ) = M(δ).2. lim n→∞1n log p(C δ,n) = M(δ).3. lim sup n→∞1n log p(C′ δ,n ) ≤ M(δ).Observação 3.2. A hipótese do Teorema 3.1 cobre trivialmente os processos ψ− misturadorescom ψ(0) < 1. Observemos que essa hipótese se refere apenas às probabilida<strong>de</strong>scondicionadas no passado imediato e não controla as correlações a longo prazocomo fazem tipicamente as condições <strong>de</strong> mistura. No Capítulo 4 mostraremos umafamília <strong>de</strong> processos que satisfazem esta condição, porém não são ψ−misturadores.Mais ainda, na Proposição 3.4, veremos uma proprieda<strong>de</strong> que <strong>de</strong>screve as correlações<strong>de</strong> uma tal medida <strong>de</strong> probabilida<strong>de</strong>.Se, na hipótese do Teorema 3.1, usamos a função max no lugar <strong>de</strong> min, não po<strong>de</strong>mosgarantir a existência da entropia generalizada <strong>de</strong> Rényi. Porém, o Teorema 3.1 é válido(com as modificações obvias na sua prova), trocando os limites por limite superior elimite inferior.A prova do Teorema 3.1, sera <strong>de</strong>senvolvida a partir do limite superior e inferior.Para isto vamos dividir a hipótese como segue:Seja p uma medida tal que, para n,m ∈ N, A ∈ C n e B ∈ C m e p(A),p(B) > 0,p(A ∩ S −n B) ≤ f ( min{m,n} ) p(A)p(B), (3.2)p(A ∩ S −n B) ≥on<strong>de</strong> f é uma função crescente que satisfaz1f ( )p(A)p(B), (3.3)min{m,n}log f(k)limk→∞ kNa seguinte seção provaremos limitantes superiores e na subseguinte limitantes inferiorespara as quantida<strong>de</strong>s que aparecem nos items 1, 2 e 3 do Teorema 3.1.= 0.3.1.1 Limitantes superioresProposição 3.1. Seja p uma medida que satisfaz (3.2). Então, para 0 < δ < 1 temosque:lim supn→∞1n log p( B n (⌊δn⌋) ) ≤ M(δ).15


Prova.Consi<strong>de</strong>reremos o caso 0 < δ ≤ 1/2.Escrevendo n = ⌊δn⌋⌊ 1 ⌋ + r, temos queδe entãor = n(1 − δ⌊ 1 δ ⌋) + (δn − ⌊δn⌋)⌊1 δ ⌋,L := n ( 1 − δ⌊ 1⌋) ≤ r ≤ n ( 1 − δ⌊ 1⌋) + ⌊ 1 ⌋ := U. (3.4)δ δ δCada palavra B n ∈ B n (⌊δn⌋) po<strong>de</strong>-se escrever comocom x i ∈ C e 0 ≤ r < ⌊δn⌋.B n = x ⌊δn⌋1 ...x ⌊δn⌋1 x r 1,Se aplicamos a equação (3.2) na palavra B n , temos quep(B n ) ≤f ( min{r, ⌊δn⌋⌊ 1 δ ⌋}) p(x ⌊δn⌋1 ...x ⌊δn⌋1 )p(x r 1)= f ( r ) p(x ⌊δn⌋1 ...x ⌊δn⌋1 )p(x r 1).Se continuamos separando a palavra x ⌊δn⌋1 ...x ⌊δn⌋1 em palavras <strong>de</strong> comprimento ⌊δn⌋ eusamos cada vez a hipótese (3.2) obtemos:p(B n ) ≤⌊ 1 δ ⌋∏i=1f ( r ) p ⌊1 δ ⌋ (x ⌊δn⌋1 )p(x r 1)< f ⌊1 δ ⌋ (n)p ⌊1 δ ⌋ (x ⌊δn⌋1 )p(x r 1),on<strong>de</strong> a última <strong>de</strong>sigualda<strong>de</strong> se segue pois r < n.Agora, separando a palavra x ⌊δn⌋1 ∈ C ⌊δn⌋ como x ⌊δn⌋1 = x r 1x ⌊δn⌋r+1 , temos quep(B n ) ≤≤f ⌊1 δ ⌋ (n)f ⌊1 δ ⌋( min{⌊δn⌋ − r,r} ) p ⌊1 δ ⌋+1 (x r 1)p ⌊1 δ ⌋ (x ⌊δn⌋r+1 )f 2⌊1 δ ⌋ (n)p ⌊1 δ ⌋+1 (x r 1)p ⌊1 δ ⌋ (x ⌊δn⌋r+1 ).Logo,p ( B n (⌊δn⌋) ) ≤≤f 2⌊1 ⌋( δ n ) ∑ ∑p ⌊1 δ ⌋+1 (C) p ⌊1 δ ⌋ (D)C∈C r D∈C ⌊δn⌋−rf 2⌊1 ⌋( δ n ) ∑ ∑p ⌊1 δ ⌋+1 (C) p ⌊1 δ ⌋ (D).C∈C L D∈C ⌊δn⌋−U16


on<strong>de</strong> a segunda <strong>de</strong>sigualda<strong>de</strong> foi obtida usando (3.4).Agora, tomando logaritmo natural e dividindo por n temos que 1 log p( Bn n (⌊δn⌋) ) élimitado superiormente por2⌊ 1 δ ⌋log f( n )+ L⌊1⌋δ1n n L⌊ 1⌋ log ∑ p ⌊1 δ ⌋+1 (C)δ C∈C L+ (⌊δn⌋ − U)(⌊1 δ ⌋ − 1)n1∑(⌊δn⌋ − U)(⌊ 1 log p ⌊1 δ ⌋ (A).⌋ − 1)δ A∈C ⌊δn⌋−UPela <strong>de</strong>finição <strong>de</strong> f, o primeiro termo vai para 0 quando n → ∞.LObservando que lim n→∞ = 1 − n δ⌊1⌋ e lim δ n→∞ ⌊δn⌋−Unlim supn→∞1n log p( B n (⌊δn⌋) )= δ + δ⌊ 1 ⌋ − 1, obtemos queδ≤ −⌊ 1 δ ⌋( 1 − δ⌊ 1 δ ⌋) H R (⌊ 1 δ ⌋) − ( δ + δ⌊ 1 δ ⌋ − 1)( ⌊ 1 δ ⌋ − 1) H R (⌊ 1 δ ⌋ − 1)= M(δ).Agora, consi<strong>de</strong>remos o caso 1 2 ≤ δ < 1. Neste caso, para cada palavra D n ∈ B n (⌊δn⌋),os primeiros e últimos n − ⌊δn⌋ símbolos são iguais. Então, separando D n nos n − ⌊δn⌋símbolos <strong>de</strong> cada extremo e n − 2(n − ⌊δn⌋) do centro, temos quep ( B n (⌊δn⌋) ) ≤ f ( min{n − ⌊δn⌋, ⌊δn⌋} ) ∑ ∑p(A) p(B)A∈C n−⌊δn⌋ B∈C ⌊δn⌋= f ( n − ⌊δn⌋ ) ∑ ∑p(A) p(B)A∈C n−⌊δn⌋ B∈C ⌊δn⌋e assim,Portanto,≤ f ( n − ⌊δn⌋ ) f ( min{2⌊δn⌋ − n, n − ⌊δn⌋} ) ∑≤ f 2( n ) ∑A∈C n−⌊δn⌋ p 2 (A)1n log p( B n (⌊δn⌋) ) ≤ 2 log f( n )n∑B ′ ∈C 2⌊δn⌋−n p(B ′ ),+ n − ⌊δn⌋nA∈C n−⌊δn⌋ p 2 (A)1n − ⌊δn⌋ log∑∑B ′ ∈C 2⌊δn⌋−n p(B ′ )A∈C n−⌊δn⌋ p 2 (A).lim supn→∞1n log p( B n (⌊δn⌋) ) ≤ −(1 − δ)H R (1) = M(δ).□17


Proposição 3.2. Seja p uma medida que satisfaz (3.2). Então, para 0 < δ ≤ 1 temosque:lim supn→∞1n log p(C δ,n) ≤ M(δ).Prova. Como na prova anterior, também começemos consi<strong>de</strong>rando o caso 0 < δ < 1 2 .Por <strong>de</strong>finição, o conjunto C δ,n po<strong>de</strong>-se escrever como a união disjunta dos conjuntos{τ(C n ) = i}, com 1 ≤ i ≤ ⌊δn⌋. Isto é,{C n ∈ C n : τ(C n ) ≤ ⌊δn⌋} = ∪ ⌊δn⌋i=1 {C n ∈ C n : τ(C n ) = i}.Também, para cada i ∈ N, {C n ∈ C n : τ(C n ) = i} ⊆ B n (i).Então,C δ,n ⊆ ∪ ⌊δn⌋i=1 B n(i) = ∪ ⌊δn⌋on<strong>de</strong> a igualda<strong>de</strong> foi obtida usando o Lema 2.1.i= ⌊δn⌋2B n (i),Portanto, lim sup n→∞1n log p(C δ,n) ≤ M(δ).□Corolário 3.1. Seja p uma medida que satisfaz (3.2). Então, para 0 < δ < 1 temosque:1lim supn→∞ n log p(C′ δ,n) ≤ M(δ).Prova.Basta observar que C δ,n ′ ⊆ B n(⌊δn⌋). Então,∑p(C n ) ≤∑p(C).C n∈C δ,n′ C∈B n(⌊δn⌋)□3.1.2 Limitantes inferioresProposição 3.3. Seja p uma medida que satisfaz (3.3). Então, para 0 < δ < 1 temosque:1lim infn→∞ n log p( B n (⌊δn⌋) ) ≥ M(δ).18


Prova.Primeiro vamos consi<strong>de</strong>rar o caso 0 < δ ≤ 1/2.Como na prova da Proposição 3.1, vamos escrever n = ⌊δn⌋⌊ 1 ⌋ + r, e dai,δr = n(1 − δ⌊ 1 δ ⌋) + (δn − ⌊δn⌋)⌊1 δ ⌋,entãoL := n ( 1 − δ⌊ 1 δ ⌋) ≤ r ≤ n ( 1 − δ⌊ 1 δ ⌋) + ⌊ 1 ⌋ := U. (3.5)δEscrevendo as palavras <strong>de</strong> B n (⌊δn⌋) como x ⌊δn⌋1 ...x ⌊δn⌋1 x r 1, com x i ∈ C e 0 ≤ r < ⌊δn⌋,e sob (3.3), temos quep ( x ⌊δn⌋1 ...x ⌊δn⌋ )1 x r 11 ≥ ⌋( f ⌊1 ⌋( δ n )p⌊1 δ x ⌊δn⌋ ) ( )1 p xr1 .Nesta expressão, a palavra x ⌊δn⌋1 po<strong>de</strong> ser escrita comoe <strong>de</strong> (3.3) temos quex ⌊δn⌋1 = x r 1x ⌊δn⌋r+1 ,p ( x ⌊δn⌋ ) 11 ≥f ( min{r, ⌊δn⌋ − r} )p( ) (x r ⌊δn⌋) 1 p x r+1 .Isto é,p ( x ⌊δn⌋1 ...x ⌊δn⌋ )1 x r 11 ≥f ⌊1 ⌋( δ n ) ⌋+1( )f ⌊1 ⌋( δ min{r, ⌊δn⌋ − r} )p⌊1 δ x r 1 p⌊ 1 ⌋( δ x ⌊δn⌋ )r+1 .Então, para o conjunto <strong>de</strong> palavras B n (⌊δn⌋) temos quep ( B n (⌊δn⌋) ) ≥≥1 ∑ ∑f 2⌊1 ⌋( δ n ) p ⌊1 δ ⌋+1 (C) p ⌊1 δ ⌋ (D)C∈C r D∈C ⌊δn⌋−r1 ∑ ∑f 2⌊1 ⌋( δ n ) p ⌊1 δ ⌋+1 (C) p ⌊1 δ ⌋ (D),C∈C U D∈C ⌊δn⌋−Lon<strong>de</strong> a última <strong>de</strong>sigualda<strong>de</strong> foi obtida usando (3.5).Agora, tomando logaritmo natural e dividindo por n temos que 1 n log p( B n (⌊δn⌋) ) élimitado inferiormente por19


−2⌊ 1 δ ⌋log f( n )n+ U⌊1 δ ⌋n+ (⌊δn⌋ − L)(⌊1 δ ⌋ − 1)n1U⌊ 1⌋ log ∑ p ⌊1 δ ⌋+1 (C)δ C∈C U1∑(⌊δn⌋ − L)(⌊ 1 log p ⌊1 δ ⌋ (A).⌋ − 1)δ A∈C ⌊δn⌋−LUO primeiro termo vai para 0 quando n → ∞, e observando que lim n→∞ = 1 − n δ⌊1⌋δ⌊δn⌋−Le lim n→∞ = δ + δ⌊ 1 ⌋ − 1, obtemos quenδlim infn→∞1n log p( B n (⌊δn⌋) )≥ −⌊ 1 δ ⌋( 1 − δ⌊ 1 δ ⌋) H R (⌊ 1 δ ⌋) − ( δ + δ⌊ 1 δ ⌋ − 1)( ⌊ 1 δ ⌋ − 1) H R (⌊ 1 δ ⌋ − 1)= M(δ).Agora, consi<strong>de</strong>remos o caso 1 ≤ δ < 1. Neste caso, os primeiros e últimos n − ⌊δn⌋2símbolos são iguais. Então, temos quep ( B n (⌊δn⌋) ) ≥≥1f ( ⌊δn⌋ ) f ( min{2⌊δn⌋ − n, n − ⌊δn⌋} )1f 2( n )∑A∈C n−⌊δn⌋ p 2 (A)∑B∈C 2⌊δn⌋−n p(B ′ ),∑A∈C n−⌊δn⌋ p 2 (A)∑B ′ ∈C 2⌊δn⌋−n p(B ′ )e assim, tomando logaritmo e dividindo por n, temos que 1 n log p( B n (⌊δn⌋) ) é limitadoinferiormente porPortanto,2 log f(n)−n− n − ⌊δn⌋n1n − ⌊δn⌋ log∑A∈C n−⌊δn⌋ p 2 (A).lim infn→∞1n log p( B n (⌊δn⌋) ) ≥ −(1 − δ)H R (1) = M(δ).□Corolário 3.2. Seja p uma medida que satisfaz (3.3). Então, para 0 < δ < 1 temosque:1lim infn→∞ n log p( )C δ,n ≥ M(δ).20


Prova.Observe que dado que C δ,n ⊇ B n (⌊δn⌋), temos que∑p(C n ) ≥∑C n∈C δ,nC∈B n(⌊δn⌋)p(C).Isto conclui a <strong>de</strong>mostração.□As proposições 3.1 e 3.3 provam o item 1. A proposição 3.2 e Corolário 3.2 provamo item 2. O Corolário 3.1 prova o item 3. Com isto concluimos a <strong>de</strong>mostração doTeorema 3.1.A seguinte proposição mostra uma proprieda<strong>de</strong> <strong>de</strong> correlação dos processos quecumprem as hipóteses (3.2) e (3.3).Proposição 3.4. Sejam p uma medida tal que para A ∈ C n e B ∈ C m , com n,m ∈ Nsatisfazendo as hipóteses (3.2) e (3.3). Então, para todo k ≥ 0,f −1( min{n,m} ) ≤ p(S−n−k B|A)p(B)≤ f ( min{n,m} ) .Prova. Se consi<strong>de</strong>ramos todas as possíveis palavras <strong>de</strong> comprimento k entre aspalavras A e B, po<strong>de</strong>mos escrever p(A ∩ S −n−k B) como seguep(A ∩ S −n−k B) = ∑C k ∈C k p(A ∩ S −n C k ∩ S −n−k B).Usando a hipótese (3.2) nas palavras A ∩ S −n C k ∈ C n+k e B ∈ C m temos∑p(A ∩ S −k C k ∩ S −n−k B) ≤ f ( min{n + k,m} ) ∑p(A ∩ S −n C k )p(B)C k ∈C k C k ∈C k= f ( min{n + k,m} ) p(A)p(B).Agora, se separamos A ∩ S −n C k ∩ S −n−k B em A ∈ C n e C k ∩ S −k B, temos que∑C k ∈C k p(A ∩ S −k C k ∩ S −n−k B) ≤ f ( min{n,m + k} ) p(A)p(B).E como f é crescente, concluimos quep(A ∩ S −n−k B) ≤ f ( min{n,m} ) p(A)p(B).O lado esquerdo se conclui <strong>de</strong> modo similar.□21


3.2 ExemplosOs seguintes exemplos mostram casos on<strong>de</strong> o Teorema 3.1 é válido porém o Teorema2.1 não se aplica.Exemplo 3.1. Consi<strong>de</strong>remos uma ca<strong>de</strong>ia <strong>de</strong> Markov tomando valores no alfabetoC = {1, 2} com matriz <strong>de</strong> transição dada por:1 2( 1 − p p)Q = 1 2q1 − qcom 0 < p < 1 e 0 < q < 1.Vamos mostrar que para alguns valores <strong>de</strong> p e q, ψ(0) ≥ 1. Portanto, sob a hipótesedo Teorema 2.1 não po<strong>de</strong>riamos garantir a existência <strong>de</strong> M(δ), porém este processosatisfaz as hipóteses do Teorema 3.3.A medida invariante para este caso é dada por:π(1) =qp + qe π(2) = pp + q .Se consi<strong>de</strong>ramos duas palavras quaisquer A = {X n 1 = a r 1} ∈ C r e B = {X r+mr+1 = b m 1 } ∈C m geradas por esta ca<strong>de</strong>ia, temos que p(A) > 0 e p(B) > 0, e também,Isto é,p(B|A)p(B)p(B|A)p(B)= p(b 1|a r )π(b 1 )= Q(a r,b 1 ).π(b 1 )⎧p + q se a r = 1 e b 1 = 2 ou se a r = 2 e b 1 = 1,⎪⎨(p+q)(1−p)=qse a r = 1 e b 1 = 1,⎪⎩(p+q)(1−q)pse a r = 2 e b 1 = 2.Basta consi<strong>de</strong>rar o conjunto {(p,q) : p ≤ q(1 − q)/(1 + q) ou q ≤ p(1 − p)/(1 + p)}para obter ψ(0) ≥ 1.Se tomamos, por exemplo, o caso em que a r = 1, b 1 = 1, p = 1/2 e q = 1/8, temos que∣ p(B|A)p(B)− 1∣ ==∣ ∣ 5 ∣ ∣∣.2 − 1(p + q)(1 − p)q− 1∣22


Portanto, ψ(0) ≥ 1.Por outro lado, po<strong>de</strong>mos limitar p(B|A)/p(B) como segueC min ≤ p(B|A)p(B)≤ C max ,on<strong>de</strong>(p + q)(1 − p) (p + q)(1 − q)C min = min{p + q, , }, eq p(p + q)(1 − p) (p + q)(1 − q)C max = max{p + q, , }.q pObserve que para 0 < p < 1 e 0 < q < 1, 0 < C min ≤ C max < +∞. Assim, esteprocesso cumpre as hipóteses do Teorema 3.3.Exemplo 3.2. Consi<strong>de</strong>remos a ca<strong>de</strong>ia <strong>de</strong> Markov {Y n } n≥0 tomando valores alfabetoC = {0, 1, 2,...} e as componentes da matriz <strong>de</strong> transição dadas por⎧⎪⎨ 1 − q w se z = 0,Q Y (w,z) = q w se z = w + 1,⎪⎩0 em outro caso,para 0 < q w < 1.A partir da ca<strong>de</strong>ia {Y n } n≥0 <strong>de</strong>finamos o processo {X n } n≥0 no alfabeto {a,b}, assim:{a se Y n = 0,X n =b se Y n ≠ 0.No próximo capítulo veremos que o processo {X n } n≥0 não é ψ−misturador pois aprobabilida<strong>de</strong> <strong>de</strong> obter a palavra X0 n−1 = b n <strong>de</strong>cae polinomialmente com n. Por outrolado, mostraremos que {X n }, em alguns casos, sim satisfaz as condições dos Teoremas3.1.3.3 Simulações.As condições ψ(0) < 1 no Teorema 2.1 e (3.3) no Teorema 3.1 impõem que odiccionário <strong>de</strong>ve ser completo. Porém, a seguinte simulação indica que essa condiçãopo<strong>de</strong>ria não ser necessária. Vamos mostrar um exemplo <strong>de</strong> uma ca<strong>de</strong>ia <strong>de</strong> Markov emque esta condição não é válida, mas o gráfico da função 1 n log p( τ(C n ) ≤ ⌊δn⌋ ) ficacontida no triângulo encontrado nas Proposições 2.1 e 2.2.23


0−0.1−0.2−0.3−0.4−0.5−0.6−0.70 1 2 3 4 5 6 7 8 9<strong>de</strong>lta*n , <strong>de</strong>lta=0 to 1, n=9Figura 3.1: Exemplo 3.3 com palavras <strong>de</strong> tamanho n=9.Exemplo 3.3. (Uma ca<strong>de</strong>ia <strong>de</strong> Markov.)Consi<strong>de</strong>remos uma ca<strong>de</strong>ia <strong>de</strong> Markov tomando valores no alfabeto {1, 2, 3, 4, 5} commatriz <strong>de</strong> transição⎛ ⎞1 10 0 02 2 0 1 10 02 2 Q =⎜0 0 1 102 2 ⎟⎝0 0 0 1 1⎠2 210 0 0 1 2 2A medida invariante é a distribuição Uniforme, p(i) = 1 , i = 1,...,5. Neste caso5todas as palavras <strong>de</strong> tamanho n têm probabilida<strong>de</strong> 0 ou 1 5 (1 2 )n−1 . Sejam A = a r 1 eB = b m 1 , duas palavras <strong>de</strong> probabilida<strong>de</strong> positiva. Então,p(B|A)= Q(a r,b 1 ){∈ 0, 5 }.p(B) p(b 1 ) 2Portanto,∣ p(B|A)p(B)− 1∣ ∈{ 32 , 1 }.Assim, temos que ψ(0) > 1. Na Figura 3.1 apresentamos a simulação da função1log p(τ(C n n) ≤ ⌊δn⌋) com palavras <strong>de</strong> tamanho 9 tomadas <strong>de</strong>sta ca<strong>de</strong>ia.O ponto <strong>de</strong> interseção das retas equivale ao valor −γ p das Proposições 2.1 e 2.2. Istoé,−γ p = 1 9 log p(P 9) = 1 (( 1) 8 ( 19 log ≈ −0.69,2 5))on<strong>de</strong> P 9 é uma das palavras em C 9 que têm medida máxima.O valor mínimo entre as medidas das palavras consi<strong>de</strong>radas é 0. Então, −ρ p = −∞e não esta representado na figura.24


Capítulo 4Comportamento local: Tempos <strong>de</strong>Retorno.4.1 IntroduçãoNeste capítulo vamos estudar estatísticas dos <strong>tempos</strong> <strong>de</strong> retorno <strong>de</strong> uma palavra emprocessos estocásticos com alfabeto finito.Lembramos que T An é o tempo em que o processo atinge pela primera vez umconjunto A <strong>de</strong> medida positiva e esta <strong>de</strong>finido porT An = inf{k ≥ 1 : X k+n−1k= A n }.Quando a condição inicial do processo é o mesmo evento, chamaremos a T An |A n (T Anrestringido a A n ) como o tempo <strong>de</strong> retorno. Lembramos que τ(A n ) <strong>de</strong>nota o períododa palavra A n .Como foi dito na introdução, foi provado primeiro para processos ψ−misturadores,com ψ exponencial, por Galves e Schmitt [15] e posteriormente para processos φ−misturadores,com φ somável, por Abadi [1], que existe c > 0 que só <strong>de</strong>pen<strong>de</strong> da medida <strong>de</strong> probabilida<strong>de</strong>P do processo {X n }, tal que,λ(A n ) = P(T An > τ(A n )|A n ) > 0.Nos perguntamos sobre o comportamento <strong>de</strong> λ(A n ) para processos mais gerais. Específicamente,queremos saber se sempre é possível encontrar uma constante c P com aproprieda<strong>de</strong> acima <strong>de</strong>scrita, ou, se pelo contrário, é possível construir uma seqüência<strong>de</strong> palavras {A n } n∈N tal queλ(A n ) −−−→n→∞ 0.Neste capítulo construiremos um processo α−misturador, com alfabeto finito e umaseqüência <strong>de</strong> palavras {A n } n∈N tal que λ(A n ) −−−→ 0. Equivalentemente,n→∞1 − λ(A n ) = P(T An = τ(A n )|A n ) −−−→n→∞ 1.25


Fisicamente isto significa que que o processo, ainda sendo ergódico misturador, nolimite é absorvido.A condiçãoτ(A n ) q.c.−−−→n1,n→∞para processos ergódicos (Afraimovich, Chazottes e Saussol [5], e Saussol, Troubetzkoye Vaienti [17]), indica queq.c.λ(A n ) −−−→ 1.n→∞No seguinte exemplo mostramos λ(A n ) ≠ 1 e que a constante c P po<strong>de</strong> ser tão pequenaquanto se quiser.Exemplo 4.1. (Caso in<strong>de</strong>pen<strong>de</strong>nte)Consi<strong>de</strong>remos um processo Bernoulli{0, 1}, com µ(0) = µ(1) = p. Consi<strong>de</strong>remos aspalavras A n = {X n 1 = 0} e B n = {X 1 = 0,X n 2 = 1}. τ(A n ) = 1 e τ(B n ) = n.Para o caso <strong>de</strong> A n temos quepara todo n.λ(A n ) = P(T An > τ(A n )|A n ) = P(T An > 1|A n ) = P(X n = 1|X n 1 = 0) = p,Já no caso <strong>de</strong> B n , P(T Bn > τ(B n )|B n ) = P(T Bn > n|B n ) = 1 − p n−1 (1 − p). Isto é,λ(B n ) −−−→n→∞ 1.4.2 Condição para λ(A n ) → 0O Exemplo 4.1 mostra dois casos em que λ(A n ) = P(T An > τ(A n )|A n ) ≥ C > 0.O objetivo agora é a construção <strong>de</strong> um processo que possua uma seqüência <strong>de</strong> palavraA n tais que λ(A n ) −−−→n→∞ 0.Começamos apresentando a construção <strong>de</strong> um processo que cumpre esta condiçãopara palavras com período 1.Consi<strong>de</strong>remos a ca<strong>de</strong>ia <strong>de</strong> Markov {Y n } n≥0 com espaço <strong>de</strong> estados {0, 1, 2,...} e ascomponentes da matriz <strong>de</strong> transição Q Y dadas por:Q Y (y, 0) = 1 − q y (4.1)Q Y (y,y + 1) = q y ,para y = 0, 1, 2,..., com q y > 0 e 0 nos outros casos.26


Figura 4.1: Ca<strong>de</strong>ia {Y n } n≥0Esse processo foi consi<strong>de</strong>rado por Fernán<strong>de</strong>z, Ferrari e Galves em [13]. Nós, a partir<strong>de</strong> uma transformação e com uma escolha a<strong>de</strong>quada das probabilida<strong>de</strong>s q y em (4.1),encontramos um processo recorrente positivo para o qual uma seqüência <strong>de</strong> palavrasA n com período 1 satisfaz P(T An > τ(A n )|A n ) → 0 quando n aumenta.No apêndice mostramos as condições para garantir que este processo seja recorrentee, em particular, recorrente positivo.A partir da ca<strong>de</strong>ia <strong>de</strong> Markov {Y n } <strong>de</strong>scrita pelas probabilida<strong>de</strong>s <strong>de</strong> transição em(4.1), vamos <strong>de</strong>finir o processo {X n } n≥0 no alfabeto {a,b} tal que X n = a quandoY n = 0, e X n = b quando Y n toma um valor diferente <strong>de</strong> 0. Isto é, X n = F(Y n ), comF : {0, 1,...} → {a,b} (4.2){ a se y = 0,y ↦→b se y > 0.Neste processo {X n } n≥0 , consi<strong>de</strong>remos as palavras B n , <strong>de</strong> período 1, formadas por nsímbolos b.Queremos encontrar os valores <strong>de</strong> q y , <strong>de</strong>finidos em (4.1), tais queou equivalentemente,P(T Bn > 1|B n ) −−−−→n→+∞ 0,P(X n = b|X n−10 = b n−10 ) −−−−→n→+∞ 1.Na seguinte proposição consi<strong>de</strong>ramos seqüências {q n } n≥0 que cumprem esse objetivo.Denotamos por b n , b ∈ C, a palavra <strong>de</strong> tamanho n on<strong>de</strong> todos seus símbolos são iguaisa b,b n := {X0 n−1 = b0 n−1 }.27


A palavra x m y k , on<strong>de</strong> k,m ≥ 0 e x,y ∈ C, <strong>de</strong>nota a palavra x m seguida da palavra y k ,isto é,x m y k := {X m−10 = x m ,X m+k−1m = y k }.Para simplificar, <strong>de</strong>notamos as probabilida<strong>de</strong>s dos cilindros assim,e as probabilida<strong>de</strong>s condicionais,p(x n−10 ) := P(X n−10 = x n−10 ),p(x n |x n−10 ) := P(X n = x n |X n−1 = x n−1 ,X n−2 = x n−2 ,...,X 0 = x 0 ).Para k,l,m e n inteiros positivos, x,y ∈ C,p(x n y m |x l y k ) := P(X k+l+m+n−1k+l+m= x n ,X k+l+m−1k+lon<strong>de</strong> consi<strong>de</strong>ramos as palavras começando no presente.= y m |X k+l−1k= x l ,X k−10 = y k ),Proposição 4.1. Seja {Y n } n≥0 a ca<strong>de</strong>ia <strong>de</strong> Markov <strong>de</strong>finida pelas probabilida<strong>de</strong>s <strong>de</strong>transição em (4.1). A partir <strong>de</strong> {Y n } <strong>de</strong>finamos o processo {X n } n≥0 no alfabeto {a,b}satisfazendo (4.2). Para n ≥ 1, seja R(n) = ∑ +∞ ∏ n+kk=0 j=n q j.Entãop(b|b n 1) =1 + 1 .R(n)Portanto, se R(n) −−−−→n→+∞∞, temos que p(b|bn ) −−−−→n→+∞ 1.Prova da Proposição 4.1 Observemos que a probabilida<strong>de</strong> <strong>de</strong> obter a palavra <strong>de</strong>tamanho n, bb...b = b n po<strong>de</strong> ser escrita <strong>de</strong>compondo o espaço segundo a posição daprimeira occorrência <strong>de</strong> a no passado imediato e <strong>de</strong>pois usando as probabilida<strong>de</strong>s <strong>de</strong>transição q y como segueP(X n 1 = b n ) ==+∞∑k=0+∞∑k=0= π(a)P(X n −k+1 = bn+k , X −k = a)P(X n = b|X n−1−k+1 = bn+k−1 , X −k = a) · · · P(X −k+1 = b|X −k = a)π(a)+∞∑k=0n+k−1∏j=0q j , (4.3)on<strong>de</strong> π(a) é a medida invariante <strong>de</strong> a no processo {X n } n≥0 .28


Usando esta última expressão temos que∑P(X n = b|X0 n−1 = b0 n−1 ) = P(Xn 0 = b n +∞0)P(X0 n−1 = b0 n−1 ) = ∑ k=0+∞∏ n+kj=0 q j∏ n+k−1k=0j=0q j.Denotemos o numerador por S(n). Então, po<strong>de</strong>mos escrever o <strong>de</strong>nominador como asoma <strong>de</strong> S(n) e o produto ∏ n−1j=0 q j. Assim, temos queP(X n = b|X n−10 = b n−10 ) =S(n)S(n) + ∏ n−1j=0 q j=11 +Én−1j=0 q jS(n)Agora, observe que S(n) = ∑ +∞ ∏ n+kk=0 j=0 q j = ∏ n−1j=0 q ∑ +∞ ∏ n+kj k=0 j=n q j. Então,P(X n = b|X n−10 = b n−10 ) =11 + 1R(n)= R(n)R(n) + 1 ,.on<strong>de</strong> R(n) = ∑ +∞ ∏ n+kk=0 j=n q j.Portanto, para garantir P(X n = b|X0 n−1 = b0 n−1 ) → 1 quando n → ∞, os valores <strong>de</strong> q jR(n)<strong>de</strong>vem satisfazer → 1 quando n → ∞, com R(n) divergendo, como estavamosR(n)+1procurando.□4.2.1 Medida invarianteNesta seção mostraremos que o processo tem uma única medida invariante e ela é não<strong>de</strong>generada.Denotamos com π(.) a medida invariante do processo que estamos consi<strong>de</strong>rando. Vamostomar π(b) = 1 − π(a). No que segue encontramos a expressão <strong>de</strong>ssa medida para ossímbolos a e b.Suponhamos P(X i = a) = π(a) e P(X j = b) = π(b) para todo i ≤ 0 e j ≤ 0 e provemosque P(X 1 = a) = π(a).Pela <strong>de</strong>finição do processo temos queP(X 1 = a) = P(X 0 = a,X 1 = a) + P(X 0 = b,X 1 = a)= π(a)(1 − q 0 ) + P(X 0 = b,X 1 = a).29


Agora, observe queP(X 0 = b,X 1 = a) =+∞∑j=0= π(a)= π(a)P(X −j−1 = a,X 0 −j = b j+1 ,X 1 = a)+∞∑j=0+∞∑j=0(1 − q j+1 )j∏i=0q i( ∏j j+1∏q i − q i).i=0Usando a última expressão em P(X 1 = a) temos que( +∞∑P(X 1 = a) = π(a) 1 − q 0 +j=0 i=0+∞∑(= π(a) 1 − q 0 + q 0 += π(a).i=0j∏q i −j=1 i=0j+1 +∞∑∏ )q ij=0 i=0j+1 +∞∑j∏q i −∏ )q ij=0 i=0E por indução po<strong>de</strong>mos concluir que P(X i = a) = π(a) para todo i ∈ Z.Vamos obter expressões explícitas mais úteis para π(a) e π(b).Para o símbolo b, pela <strong>de</strong>finição do processo temos queObserve queEntão,P(X 1 = b) = P(X 0 = a,X 1 = b) + P(X 0 = b,X 1 = b)P(X 1 0 = b 2 ) == π(a)q 0 + P(X 1 0 = b 2 ).+∞∑j=0= π(a)P(X 1 −j = b j+2 ,X −j−1 = a)j+1 +∞∑∏q j .j=0 i=0P(X 1 = b) = π(a)Assim, por indução para k ∈ Z temos quee como π(b) = 1 − π(a),+∞∑P(X k = b) = π(b) = π(a)P(X k = a) = π(a) =30j=0 i=0j∏q j .+∞∑j=0 i=0j∏q j . (4.4)11 + ∑ +∞ ∏ jj=0 i=0 q . (4.5)j


4.2.2 Medidas das palavrasLema 4.1. Seja {X n } n∈Z um processo estacionário tomando valores no alfabeto binário{a,b}. Então,P(X1 k = b k ,X k+1 = a) = P(X 1 = a,X2 k+1 = b k ).Prova.P(X1 k = b k ,X k+1 = a) = P(X1 k = b k ) − P(X1 k+1 = b k+1 )= P(X2 k+1 = b k ) − P(X1 k+1 = b k+1 )= P(X 1 = a,X2 k+1 = b k ).Observação 4.1. Para o processo {X n } n≥0 <strong>de</strong>finido em (4.2),k−1∏p(b k a) = p(ab k ) = π(a) q i . (4.6)i=0□Na seguinte observação vamos enumerar algumas medidas <strong>de</strong> palavras e probabilida<strong>de</strong>scondicionais no processo {X n } n∈Z que serão úteis em futuras provas e que foram obtidasda prova da Proposição 4.1.Observação 4.2. Para n ≥ 1,1. p(b n ) = π(a) ∑ +∞ ∏ n+k−1k=0 j=0q j .2. p(b|b n ) = R(n)R(n)+1 .3. p(a n ) = (1 − q 0 ) n−1 π(a).4. p(b n |a) = ∏ n−1i=1 q i.Na seguinte proposição vamos obter expressões explícitas para as probabilida<strong>de</strong>s <strong>de</strong>todas as palavras do Processo {X n }.Isto nos ajudara a construir explicitamente um caso on<strong>de</strong> λ(A n ) → 0 e ainda esseprocesso satisfaz as condições (3.2) e (3.3) do Teorema 3.1 mostrado no capítulo anteriore não é ψ−misturador.Vamos consi<strong>de</strong>rar palavras C, obtidas do processo {X n }, contendo pelo menos umsímbolo a e pelo menos um símbolo b. Denotaremos por N w o número <strong>de</strong> símbolos wna palavra, com w ∈ {a,b}. Com B w <strong>de</strong>notaremos o número <strong>de</strong> blocos que contém osímbolo w. k i indica o comprimento do i-ésimo bloco <strong>de</strong> símbolos b. Também, parasimplificar as expressões usamos a notação σ m := ∏ mi=0 q i.31


Proposição 4.2. Consi<strong>de</strong>remos o processo {X n } n≥0 <strong>de</strong>finido em (4.2). Seja C umapalavra com N a > 0 e N b > 0. Então,1. Se C é uma palavra que começa e termina em a,∏B b( )p(C) = π(a)(1 − q 0 ) Na−Ba σkj −1 − σ kj .j=12. Se C é uma palavra que começa em a e termina em b,p(C) = π(a)(1 − q 0 ) Na−Ba σ kU −1B∏b −1j=1on<strong>de</strong> k U <strong>de</strong>nota o comprimento do último bloco <strong>de</strong> b ′ s.3. Se C é uma palavra que começa em b e termina em a,p(C) = π(a)(1 − q 0 ) Na−Ba ∑ ∞l=0 σ k 1 +l−11 + R(k 1 )(σkj −1 − σ kj),∏B bj=2on<strong>de</strong> k 1 <strong>de</strong>nota o comprimento do primeiro bloco <strong>de</strong> b ′ s.4. Se C é uma palavra que começa e termina em b,p(C) = π(a)(1 − q 0 ) Na−Ba ∑ ∞l=0 σ k 1 +l−11 + R(k 1 ) σ k U −1(σkj −1 − σ kj),B∏b −1j=2(σkj −1 − σ kj).Prova.1. Observe que se C começa e termina em a po<strong>de</strong>mos escreverC = a m 1b k 1...b k Ba m B+1,on<strong>de</strong> B := B b <strong>de</strong>nota o número <strong>de</strong> blocos contendo o símbolo b. (Abusando danotação, se B b = 1, C = a m 1b k 1a m 2 ).Assim,Logo,p(C) = π(a)(1 − q 0 ) m 1−1B∏j=1(k j −1∏(1 − q 0 ) mj+1−1 (1 − q kj ) q i).i=0∏B b k( ∏ i −1)p(C) = π(a)(1 − q 0 ) Na−Ba (1 − qj ) q kij=1i=0∏B b( )= π(a)(1 − q 0 ) Na−Ba σkj −1 − σ kj .j=132


2. Quando a palavra C começa em a mas termina em b, estamos em um caso similarao anterior. Agora temos o mesmo número <strong>de</strong> blocos <strong>de</strong> símbolos <strong>de</strong> a e <strong>de</strong>símbolos b, B b = B a := B. Então,p(C) = π(a)(1 − q 0 ) m 1−1B−1∏j=1B∏b −1= π(a)(1 − q 0 ) Na−Ba3. Neste caso po<strong>de</strong>mos escreversendo B b = B a := B. Então,j=1(k j −1∏(1 − q 0 ) mj+1−1 (1 − q kj )( ) k ∏B−1σkj −1 − σ kjC = b k 1a m 1...a m B−1b k Ba m B,p(C) = p(b k 1)p(a|b k 1)(1 − q 0 ) m 1−1∏ k1 +l−1j=0q j( ∑ +∞l=0= π(a)R(k 1 ) + 1B∏j=2i=0q i .i=0) k∏B −1q ii=0(k j −1∏ )(1 − q 0 ) mj+1−1 (1 − q kj ) q i∏B b( ) )(1 − q 0 ) Na−Ba σkj −1 − σ kj .4. Se a palavra C começa e termina em b po<strong>de</strong>mos escreverj=2C = b k 1a m 1...a m B−1b k Ba m Bb k U,com k U o tamanho do último bloco <strong>de</strong> símbolos b. Assim,p(C) = p(b k 1)p(a|b k 1)(1 − q 0 ) m 1−1∏ k1 +l−1j=0q j( ∑ +∞l=0= π(a)R(k 1 ) + 1B∏j=2i=0(k j −1∏ ) K∏U −1(1 − q 0 ) mj+1−1 (1 − q kj ) q iB∏b −1)σ kU −1(1 − q 0 ) Na−Baj=2i=0q ii=0q i(σkj −1 − σ kj).□A seguinte proposição será usada na Seção 4.3 para mostrar uma família <strong>de</strong> processosque satisfaz as condições do Teorema 3.1.Vamos <strong>de</strong>notar com AB a concatenação da palavra A com a palavra B.Proposição 4.3. Consi<strong>de</strong>remos duas palavras A e B geradas pelo processo {X n } n≥0 .1. Se A termina em a e B começa em a, então,p(AB) = (1 − q 0)p(A)p(B).π(a)33


2. Se A termina em b e contem pelo um símbolo a e B começa em a, então,p(AB) = (1 − q l)π(a) p(A)p(B),on<strong>de</strong> l <strong>de</strong>nota o tamanho do último bloco <strong>de</strong> símbolos b na palavra A.3. Se A termina em a e B começa em b e contem pelo menos um símbolo a, então,p(AB) = (1 − q m)p(A)p(B),π(a)on<strong>de</strong> m é o tamanho do comprimento do primeiro bloco <strong>de</strong> símbolos b na palavraB.4. Se A termina em b e contem pelo menos um símbolo a e B começa em b e contempelo menos um símbolo a, então,p(AB) = (1 − q m+l)σ m+l−1p(A)p(B),σ l−1 σ m−1 π(a)on<strong>de</strong> m é o comprimento do primeiro bloco <strong>de</strong> símbolos b na palavra B, l ocomprimento do último bloco <strong>de</strong> b ′ s na palavra A.5. Se A = b l e B = b m , então,p(AB) =σ m+l−2 R(m + l − 1)π(a)σ l−1 σ m−1 R(l − 1)R(m − 1) p(A)p(B).Prova.1. Se A termina em a e B começa em a, po<strong>de</strong>mos escrever A =Então,p(AB) = p(Ãa a ˜B) = p( ˜B|a)p(a|a)p(Ãa)ePortanto,p(B) = p( ˜B|a)π(a).p(AB)p(A)p(B) = p(a|a)π(a) = (1 − q 0).π(a)2. Se A termina em b e B começa em a, então,p(AB)p(A)p(B)= p(Ãabl a ˜B)p(Ãabl )p(a ˜B)= p( ˜B|a)p(a|b l a)p(Ãabl )p(Ãabl )p( ˜B|a)π(a)= p(a|bl a)π(a)= (1 − q l)π(a) .Ãa e B = a ˜B.34


3. Se A termina em a e B começa em b, po<strong>de</strong>mos escrever A = Ãa e B = bm a ˜B,para m ≥ 1. Então,ePortanto,p(AB) = p(Ãa bm a ˜B) = p( ˜B|a)p(a|b m a)p(b m |a)p(Ãa)p(B) = p( ˜B|a)p(a|b m )p(b m ).p(AB)p(A)p(B) = p(a|bm a)p(b m |a)p(a|b m )p(b m )on<strong>de</strong> a última igualda<strong>de</strong> foi obtida usando o Lema 4.6.= (1 − q m)p(ab m ),p(ab m )π(a)4. Se A termina em b e B começa em b, po<strong>de</strong>mos escrever A = Ãabl e B = b m a ˜B,para m ≥ 1 e l ≥ 1. Então,p(AB) = p(Ãa bm+l a ˜B) = p( ˜B|a)p(a|b m+l m+la)p(b |a)p(Ãa),ePortanto,p(A) = p(b l |a)p(Ãa)p(B) = p( ˜B|a)p(a|b m )p(b m ).p(AB)p(A)p(B) = p(a|bm+l a)p(b m+l |a)p(b l |a)p(b m |a)π(a) = (1 − q m+l) ∏ m+l−1π(a) ∏ l−1 ∏ m−1i=0 q ii=0 q ii=0 q i5. Para qualquer n ≥ 1, se na medida da palavra b n mostrada em (4.3), tomamos ofator comun nos termos da soma , temos que,p(b n ) = π(a)+∞∑k=0n−2∏= π(a)i=0n+k−1∏j=0q i+∞∑q jn+k−1∏k=0 j=n−1= π(a)σ n−2 R(n − 1).q j.□4.3 Um caso que satisfaz as hipóteses do Teorema 3.1Nesta seção vamos construir um caso particular do processo {X n } n∈Z (<strong>de</strong>finido a partir<strong>de</strong> (4.2)) on<strong>de</strong> λ(A n ) converge a 0.35


Fixemos s > 1. Consi<strong>de</strong>remos a seqüência crescente <strong>de</strong> probabilida<strong>de</strong>s <strong>de</strong> transição{q n } n≥0 on<strong>de</strong>(n + 1)sq n =(n + 2) s. (4.7)Então,en+k∏j=nq j = q n q n+1 q n+2 · · · q n+k =(n + 1)s(n + k + 2) s,R(n) =+∞∑n+k∏k=0 j=nq j =+∞∑k=0(n + 1) s(n + k + 2) = (n + ∑+∞ s 1)sm=n+21ms. (4.8)Observe que na última soma aparece a cauda a partir <strong>de</strong> n + 2 da função Zeta <strong>de</strong>Riemann ζ(s) ∗ . Assim, escrevendo R(n) em termos <strong>de</strong> ζ(s) obtemosR(n) = (n + 1) s (ζ(s) −∑n+1i=11).i sNo Lema A.2 do Apêndice, mostramos limites para a cauda da função Zeta <strong>de</strong> Riemann.Usando esse resultado temos quePortanto, R(n) = O ( n + 1 ) e comotemos queLogo,n + 1s − 1 − 1 < R(n) < n + 1s − 1 . (4.9)P(X n = b|X n−10 = b n−10 ) = R(n)R(n) + 1 ,n − s + 2n + 1< P(X n = b|X n−10 = b n−10 ) < n + 1n + s .lim P(X n = b|X0 n−1 = b0 n−1 ) = 1.n→∞O processo {X n } n∈Z <strong>de</strong>finido a partir das transições q y em (4.7) será <strong>de</strong>notado por{X ∗ n} n∈Z .∗ Função Zeta <strong>de</strong> Riemann ζ(s) = ∑ +∞i=1 1 i s 36


4.3.1 Medidas das palavras.Proposição 4.4. A medida invariante do símbolo a, π(a), para o processo {X ∗ n} n∈Z édada porπ(a) = 1ζ(s) ,e a medida invariante do símbolo b, π(b), é dada porπ(b) = 1 − π(a).Prova.Basta substituir as probabilida<strong>de</strong>s q i = (i + 1) s /(i + 2) 2 em (4.4) e (4.5). □Observação 4.3. Vamos enumerar algumas medidas <strong>de</strong> palavras e probabilida<strong>de</strong>scondicionais no processo {X ∗ n} n∈Z que precisaremos em futuras provas. Se n ≥ 1,1. p(a|b n a) = 1 − ( n+1n+2) s.2. p(a n ) = ( 1 − 1 2 s ) n−1π(a).3. p(b n ) = π(a) ∑ +∞ 1i=n+1= O ( n 1−s) .i s4. p(b n |a) = 1(n+1) s .5. p(b|b n ) = R(n)R(n)+1 ,Prova.on<strong>de</strong> R(n) = (n + 1) s ∑ +∞m=n+21.m s1. Da <strong>de</strong>finição do processo temos que,p(a|b n a) = 1 − q n = 1 − ( n+1n+2) s.2. p(a n ) = p n−1 (a|a)π(a) = (1 − q 0 ) n−1 π(a) = ( 1 − 1 2 s ) n−1π(a).3. Usando a equação (4.3), temos quep(b n ) = π(a)= π(a)= π(a)37+∞∑k=0+∞∑k=0+∞∑i=n+1n−1+k∏j=0q j1(n + k + 1) s1i s.


Também, do Lema A.2 temos que,Logo, p(b n ) = O ( n 1−s) .4. p(b n |a) = ∏ n−1i=0 q i = 1(n+1) s .π(a) π(a)− < p(b n ) 0 e N b > 0. Então, para κ =− log(1 − 2 −s ),1. Se C é uma palavra que começa e termina em a,∏B bp(C) = e −κ(Na−Ba) O(k −s−1i ).2. Se C é uma palavra que começa em a e termina em b,i=1p(C) = e −κ(Na−Ba) O(k −s∏U ) B b −1on<strong>de</strong> k U <strong>de</strong>nota o comprimento do último bloco <strong>de</strong> b ′ s.3. Se C é uma palavra que começa em b e termina em a,p(C) = e −κ(Na−Ba) O(k −1i=1∏B bI)i=2O(k −s−1i ),O(k −s−1i ),on<strong>de</strong> k I <strong>de</strong>nota o comprimento do primeiro bloco <strong>de</strong> b ′ s.4. Se C é uma palavra que começa e termina em b,p(C) = e −κ(Na−Ba) O(k −1I)O(k −s∏U ) B b −1i=2O(k −s−1i ).O seguinte corolário é uma conseqüência da Proposição 4.3 para o caso particular{X ∗ n} n≥0 .38


Corolário 4.2. Consi<strong>de</strong>remos duas palavras A e B geradas pelo processo {X ∗ n} n≥0 .1. Se A termina em a e B começa em a, então,p(AB) = ζ(s) ( 1 − 1 2 s )π(a)p(A)p(B).2. Se A termina em b e contem pelo um símbolo a e B começa em a, então,(p(AB) = ζ(s)1 − ( l + 1l + 2) s)p(A)p(B),on<strong>de</strong> l <strong>de</strong>nota o tamanho do último bloco <strong>de</strong> símbolos b na palavra A.3. Se A termina em a e B começa em b e contem pelo menos um símbolo a, então,(p(AB) = ζ(s)1 − ( m + 1m + 2) s)p(A)p(B),on<strong>de</strong> m é o tamanho do comprimento do primeiro bloco <strong>de</strong> símbolos b na palavraB.4. Se A termina em b e contem pelo menos um símbolo a e B começa em b e contempelo menos um símbolo a, então,(p(AB) = ζ(s)(m + 1) s (l + 1) s 1(m + l + 1) − 1)p(A)p(B),s (m + l + 2)on<strong>de</strong> m é o comprimento do primeiro bloco <strong>de</strong> símbolos b na palavra B, l ocomprimento do último bloco <strong>de</strong> b ′ s na palavra A.Observação 4.4. Como em todos os casos o fator que multiplica os termos p(A)p(B)é polinomial, as condições do Teorema 3.1 são satisfeitas.4.3.2 {X ∗ n} n≥0 é α-misturador.Nesta seção, vamos mostrar que é possível obter λ(A n ) indo para 0, mesmo sobcondições <strong>de</strong> mistura.Teorema 4.1. O processo {X ∗ n} n≥0 é α−misturador.Para construir a prova <strong>de</strong>ste teorema, apresentamos o seguinte lema provado porBradley em [7].Lema 4.2. Seja {Y n } n≥0 uma ca<strong>de</strong>ia <strong>de</strong> Markov estritamente estacionária com espaço<strong>de</strong> estados contável. Então as seguintes afirmações são equivalentes:39


1. {Y n } é irredutível e aperiódica.2. α(n) → 0 quando n → ∞.Agora apresentamos um lema tomado <strong>de</strong> [10] que vai ser usado como uma dasferramentas para mostrar que o processo {X ∗ n} n≥0 é α-misturador.Lema 4.3. Seja X n = g(Y n ,Y n−1 ,...,Y n−k ) uma função mensurável para k < ∞. Se{Y n } é α Y −misturador então {X n } também é α X −misturador.Prova do Teorema 4.1.Basta mostrar que o processo {Y n } é irredutível e aperiódico.O fato <strong>de</strong> que q i > 0 para i ≥ 0 garante a irredutibilida<strong>de</strong>.Para provar que a ca<strong>de</strong>ia é aperiódica observe queA 0 := {n ≥ 1 : P(X n = 0|X 0 = 0) > 0} ⊃ B 0 := {n ≥ 1 : P(T 0 = n|X 0 = 0) > 0}.Então, o máximo comum divisor <strong>de</strong> A 0 é menor ou igual do que o máximo comumdivisor <strong>de</strong> B 0 .Agora, P(T 0 = n|X 0 = 0) = q 0 q 1 ...q n−1 (1 − q n ) > 0 é equivalente a q n < 1. Logo,n = 1 ∈ B. Portanto, o máximo comum divisor <strong>de</strong> A é 1. Isto é, a ca<strong>de</strong>ia {Y n } éaperiódica.□4.3.3 Velocida<strong>de</strong> <strong>de</strong> convergência da seqüência {α(.)}.Nesta seção vamos mostrar um resultado que <strong>de</strong>screve a velocida<strong>de</strong> <strong>de</strong> convergênciada seqüência dos coeficientes α do processo {X ∗ n} n≥0 .O seguinte lema, provado por Abadi [1], dá um limitante inferior dos coeficientes αpara qualquer palavra no processo.Lema 4.4. (Abadi, 2004) Seja {X m } m∈Z um processo α−misturador. Existem constantesc > 0 e Γ > 0, para todo n e para todo A ∈ C n tais quep(A) ≤ c[e −Γ 3√n + α( 3√ n)].Observação 4.5. No processo {X ∗ n} n≥0 , b n é a palavra <strong>de</strong> tamanho n <strong>de</strong> probabilida<strong>de</strong>máxima entre todas aquilas <strong>de</strong> tamanho n. Mais ainda, sua medida tem <strong>de</strong>caimentopolinomial,p(b n ) = O ( (n + 1) 1−s) .40


Consi<strong>de</strong>rando esta palavra no Lema 4.4, temos que para o processo {X ∗ n} n≥0 com nsuficientemente gran<strong>de</strong>, existe c > 0 tal queα(n) ≥ c(n 3 + 1) 1−s .A seguinte proposição permite obter uma <strong>de</strong>sigualda<strong>de</strong> mais ajustada que a anterior.Proposição 4.5. Consi<strong>de</strong>remos o processo {X ∗ n} n≥0 . Então, existe uma constantepositiva c tal que para todo n ∈ N e todo 0 < δ < 1,α(n) ≥ c(n + 1) 1−sδ .Prova.Para 0 < δ < 1 e n ∈ N po<strong>de</strong>mos escrevern = ⌊n δ ⌋⌊n 1−δ ⌋ + r δ,com 0 < r δ < ⌊n δ ⌋.Então, para qualquer palavra <strong>de</strong> tamanho n gerada pelo processo {Xn}, ∗ digamos A ={X0 n−1 = a0 n−1 }, temos quep(A) ≤ P ( X 0 = a 0 ,X ⌊n δ ⌋ = a ⌊n δ ⌋,X 2⌊n δ ⌋ = a 2⌊n δ ⌋,...,X ⌊n δ ⌋⌊n 1−δ ⌋ = a ⌊n δ ⌋⌊n 1−δ ⌋).Como {X ∗ n} é α−misturador (Teorema 4.1), po<strong>de</strong>mos limitar o lado direito da últimaexpressão. Assim,p(A) ≤ P ( X 0 = a 0)P(X⌊n δ ⌋ = a ⌊n δ ⌋,...,X ⌊n δ ⌋⌊n 1−δ ⌋ = a ⌊n δ ⌋⌊n 1−δ ⌋)+ α(⌊n δ ⌋ − 1)≤ ρ P ( X ⌊n δ ⌋ = a ⌊n δ ⌋,...,X ⌊n δ ⌋⌊n 1−δ ⌋ = a ⌊n δ ⌋⌊n 1−δ ⌋)+ α(⌊n δ ⌋ − 1),on<strong>de</strong> ρ = max{p(a i )}.Repetindo este argumento nas palavras (X ⌊n δ ⌋ = a ⌊n δ ⌋,...,X ⌊n δ ⌋⌊n 1−δ ⌋ = a ⌊n δ ⌋⌊n 1−δ ⌋),temos que,p(A) ≤ ρ ⌊n1−δ⌋ P ( X ⌊n δ ⌋⌊n 1−δ ⌋ = a ⌊n δ ⌋⌊n 1−δ ⌋)+(ρ⌊n δ ⌋−1 + ... + ρ + 1 ) α(⌊n δ ⌋ − 1)≤ ρ ⌊n1−δ ⌋+1 + c 0 α(⌊n δ ⌋ − 1),on<strong>de</strong> c 1 (n) = (1 − ρ ⌊nδ⌋ )/(1 − ρ), 0 < c 1 (n) < 1, e c 1 (n) ≤ 11−ρ = c 0.Como a última <strong>de</strong>sigualda<strong>de</strong> é válida para toda palavra <strong>de</strong> tamanho n gerada peloprocesso {X ∗ n}, em particular para A = b n , a palavra <strong>de</strong> probabilida<strong>de</strong> máxima <strong>de</strong>or<strong>de</strong>m O(n 1−s ). Então, temos que,41


com s > 1 e 0 < c 2 < 1.Portanto, para n suficientemente gran<strong>de</strong>,c 2 n 1−s ≤ ρ ⌊n1−δ ⌋+1 + c 1 α(⌊n δ ⌋ − 1),α(n) ≥ c (n + 1) 1−sδ .□4.4 Um caso que não satisfaz as hipóteses do Teorema3.1Nesta seção daremos condições sobre os valores <strong>de</strong> q n , que fazem com que o Processo{X n } não satisfaz as Hipóteses (3.2) e (3.3).Em (4.3) mostramos que, para o processo {X n } n≥0 , a probabilida<strong>de</strong> <strong>de</strong> obter a palavra<strong>de</strong> tamanho n, b n , é dada porp(b n ) = π(a)+∞∑k=0σ n+k−1 ,on<strong>de</strong> π(a) é a medida invariante e σ m = ∏ mj=0 q j. Equivalentemente,p(b n ) = π(a)Consi<strong>de</strong>remos o caso particular em que+∞∑k=n−1+∞∑k=n−1σ k .σ k = e −nα , α > 1.Então,De (4.5),Logo, neste caso,p(b n b n )p(b n )p(b n ) =π(a) =−2)n αe−(2n)α= e−(2απ(a)e −2nα π(a)π(a) =11 + ∑ ∞j=0 σ .je1 + e ..42


Assim, temos que p(b n b n ) = f(n)p(b n )p(b n ),on<strong>de</strong>Mas,f(n) = 1+eee −(2α −2)n α .1n log f(n) = log ( )1+ee − (2 α − 2)n α −−−→ −∞n→∞Portanto, não cumpre a hipótese do Teorema 3.1.43


Capítulo 5EntropiasNo Capítulo 3 provamos a relação entre a função M(δ) e as entropias <strong>de</strong> Rényi,H R (β) (que são <strong>de</strong>finidas por um certo limite). A existência <strong>de</strong>stas entropias não estáapriori garantida. Só se sabe que para uma medida <strong>de</strong> Gibbs com potencial Höl<strong>de</strong>rcontínuo, ela existe e é analítica (ver Ellis [12]) e −βH R (β) é convexa para β > 0 (ver[20]).Neste capítulo mostraremos que para uma medida que satisfaz as condições (3.2) e(3.3), ditas entropias existem. São estas que <strong>de</strong>terminam justamente a existência dafunção M(δ) (que foi <strong>de</strong>finida também como um outro limite).Observamos também que a entropia <strong>de</strong> Rényi em 0 correspon<strong>de</strong> à entropia métricado processo. Derivamos também algumas proprieda<strong>de</strong>s sobre ela.5.1 DefiniçõesA Entropia <strong>de</strong> um processo estacionário {X n } tomando valores no alfabeto C é<strong>de</strong>finida por1 ∑h({X n }) = − lim p(C n ) log p(C n ),n nC n∈C non<strong>de</strong> este limite existe para todo processo ergódico. (ver [9]).Lembramos que, para qualquer β ∈ R, a Entropia generalizada <strong>de</strong> Rényi, <strong>de</strong>notadapor H R (β), é <strong>de</strong>finida por1H R (β) = − limn→∞ nβ log ∑p(C n ) β+1 ,C n∈C ncuando o limite existe. A existência <strong>de</strong>ste limite é conhecida para medidas <strong>de</strong> Gibbs.(ver [12]).Na seguinte proposição mostraremos que a entropia <strong>de</strong> Rényi existe toda vez que ascondições (3.2) e (3.3) são satisfeitas.44


Notemos que uma medida <strong>de</strong> Gibbs com potencial Höl<strong>de</strong>r contínuo, é uma medidaψ−misturadora com função ψ exponencial (ver Bowen [6]). Mais ainda, os processosψ-misturadores satisfazem trivialmente as condições (3.1) e (3.2) (com função f(n) =ψ(0)). Portanto, esta proposição generaliza o resultado clássico sobre a existência dasentropias <strong>de</strong> Rényi.Proposição 5.1. Seja p uma medida tal que, para A ∈ C n e B ∈ C m , com n,m ∈ N ep(A),p(B) > 0,1f ( min{m,n} )p(A)p(B) ≤ p(A ∩ S−n B) ≤ f ( min{m,n} ) p(A)p(B), (5.1)on<strong>de</strong> f é uma função crescente que satisfazlog f(k)limk→∞ kEntão, a entropia generalizada <strong>de</strong> Rényi existe.= 0.Prova.Consi<strong>de</strong>remos a seqüência {H n } n∈N on<strong>de</strong>H n = 1nβ log ∑C n∈C n p(C n ) β+1 .Vamos mostrar que {H n } é uma seqüência <strong>de</strong> Cauchy.Sejam m, n ∈ N e d = mn. Então,|H m − H n | ≤ |H d − H m | + |H d − H n |.Separando as palavras <strong>de</strong> tamanho d em palavras <strong>de</strong> tamanho m e sob a hipótese (5.1),Logo,p β+1 (C d ) ≤ f (β+1)(n−1) (m)n∏i=1p β+1 (C [i]m).∑n∏ ∑p β+1 (C d ) ≤ f (β+1)(n−1) (m) p β+1 (C m)[i]C d ∈C d =C m ×...×C m i=1C m [i] ∈C( ∑m ) n.= f (β+1)(n−1) (m) p β+1 (C m )C m∈C mAgora, tomando logaritmo e dividindo por dβ, temos que1dβ log ∑C d ∈C d p β+1 (C d ) ≤m(β + 1)(n − 1) log f(m)dβ m+ nβmdβ1βm log ∑C m∈C m p β+1 (C m ).45


Isto é,H d ≤(β + 1)(n − 1) log f(m)+ H m .nβ mPortanto, quando m → ∞ (e equivalentemente d → ∞),|H d − H m | → 0.Concluimos a mesma coisa para |H d − H m | separando as palavras <strong>de</strong> tamanho d empalavras <strong>de</strong> tamanho n.Portanto, {H n } é uma seqüência <strong>de</strong> Cauchy e1limn→∞ nβ log ∑p β+1 (C n ),C n∈C nexiste.□A seguinte proposição dá uma condição para garantir que a entropia métrica <strong>de</strong> umprocesso seja positiva.Proposição 5.2. Seja {X n } um processo estacionário tomando valores no alfabeto C.Se existe uma constante c > 0 e uma seqüência <strong>de</strong> conjuntos {A n } n∈N on<strong>de</strong> A n ⊆ C npara todo n ∈ N, tais que1. p(A n ) ≤ e −cn para todo A n ∈ A n e,2. lim inf n→∞ p(A n ) > 0.Então, a entropia h({X n }) é positiva.Prova.Como A n ⊆ C n , temos que,1 ∑p(C n ) log p(C n ) ≤ 1 ∑p(C n ) log p(C n ).nnC n∈C n C n∈A nAgora, como p(C n ) ≤ e −cn , para toda C n ∈ A n ,−h({X n }) ≤lim supn→∞1n= −c lim supn→∞= −c lim supn→∞Por hipótese, lim inf n→∞ p(A n ) > 0. Portanto,∑h({X n }) > 0.p(C n ) log e −cnC n∈A∑n p(C n )C n∈A np(A n ).□46


Observação 5.1. Esta proposição po<strong>de</strong> ser usada para provar que o processo {X ∗ n}possui entropia postiva. Isto será mostrado nas conclusões finais.A seguinte proposição garante a existência e nulida<strong>de</strong> das entropias <strong>de</strong> Rényi paraβ > 0, sob a condição <strong>de</strong> ter uma seqüência <strong>de</strong> palavras <strong>de</strong> probabilida<strong>de</strong> subexponencial.Proposição 5.3. Se existe uma seqüência <strong>de</strong> palavras {B n } n∈N com B n ∈ C n tal quelog p(B n )limn→∞ n= 0,então, para todo β > 0, a Entropia Generalizada <strong>de</strong> Rényi, H R (β) é nula.Prova.Para β > 0 temos que0 > 1nβ log ∑p(C n ) β+1 ≥ 1nβ log p(B n) β+1 ,c n∈C ne pela hipótese, o último termo converge a 0.Portanto, a Entropia Generalizada <strong>de</strong> Rényi é igual a 0 para β > 0.□Corolário 5.1. O Processo {X ∗ n}, <strong>de</strong>finido na seção 4.3 satisfaz H R (β) = 0, para todoβ > 0.Prova. Consi<strong>de</strong>remos a palavra B n = b n .Na equação (4.10), mostramos que p(b n ) = O(n 1−s ). Então,log p(b n )n−−−→n→∞ 0.Portanto, do Lema 5.3, temos que para {X ∗ n}, H R (β) = 0, para β > 0.□5.2 Sobre a convexida<strong>de</strong> <strong>de</strong> H R e M(δ)Lembramos que para medidas <strong>de</strong> Gibbs com potencial Höl<strong>de</strong>r contínuo, a função−βH R (β) é convexa para β > 0. Nos interessa estudar a possível convexida<strong>de</strong> dasfunções M(δ) e G(δ) <strong>de</strong>finidas no Capítulo 3. Estas funções estão <strong>de</strong>terminadas pelaentropia <strong>de</strong> Rényi H R (β), para β > 0. Embora a convexida<strong>de</strong> <strong>de</strong> M(δ) e G(δ), assimcomo a <strong>de</strong> H R (β) sob as condições (3.2) e (3.3), sejam questões ainda em aberto,faremos algumas consi<strong>de</strong>rações sobre H R .47


H_Rbeta32.752.52.25-1 -0.5 0.5 1 1.5 2 beta1.751.51.25Figura 5.1: Entropia <strong>de</strong> Rényi, para o caso N = 20 e P = 1 (43, 3,...,3)1000.40.2-1 -0.5 0.5 1 1.5 2-0.2-0.4-0.6Figura 5.2: Gráfico da segunda <strong>de</strong>rivada <strong>de</strong> (5.2).Consi<strong>de</strong>remos o exemplo proposto no artigo <strong>de</strong> Zyczkowski [20], que mostra que aEntropia <strong>de</strong> Rényi, para uma medida sobre um espaço discreto finito, nem sempre éconvexa.Para N = 20 com o vetor <strong>de</strong> probabilida<strong>de</strong> P = 1 (43, 3,...,3) temos que a100Entropia <strong>de</strong> Rényi para este caso é dada porH R (β) = − 1 β log N∑i=1x β+1i= − 1 β log (( 43100 )β+1 + 19( 3100 )β+1 ). (5.2)Neste caso, como observamos na Figura 5.1, há um ponto <strong>de</strong> mudança <strong>de</strong> concavida<strong>de</strong>na função H R (β). O Gráfico da segunda <strong>de</strong>rivada (Figura 5.2) mostra que afunção (5.2) é côncava antes do ponto <strong>de</strong> inflexão e convexa <strong>de</strong>pois. Usando a FunçãoFindRoot do software Mathematica 5.0, encontramos que β = 0.14109 é a única raizda segunda <strong>de</strong>rivada da Função H R (β).Agora estu<strong>de</strong>mos um caso geral da Entropia apresentada em (5.2). Consi<strong>de</strong>remos o48


1.751.25 1.52 4.53.5 40.75 2 4 6 82.5 -1 1234566.55.5 62 4 6 88.5 97.52 4 6 810Figura 5.3: Gráficos da Entropia (5.3) para N = 10, 100, 1000 e 10000.0.40.60.2-1 1 2 3 4-0.4-0.20.40.2-0.2 -1 1 2 3 4-0.4-0.60.2-0.2 -1 1 2 34 5-0.40.1-0.1 -0.2-0.4 -0.32 3 4 5Figura 5.4: Gráficos da segunda <strong>de</strong>rivada das entropias mostradas acima.vetor <strong>de</strong> probabilida<strong>de</strong>s <strong>de</strong> tamanho N, P N = 1 (43, 3,...,3).20+3N)H [N]R(((β) = −1 β log 43340 + 3N )β+1 + (N − 1)(40 + 3N )β+1 . (5.3)Nas Figuras 5.3 e 5.4 mostramos a Entropia (5.3) para diferentes probabilida<strong>de</strong>s P Ne os gráficos <strong>de</strong> suas segundas <strong>de</strong>rivadas na procura dos seus pontos <strong>de</strong> inflexão.Usando métodos numéricos (Software Mathematica 5.0, função FindRoot) temosque para N = 10 o ponto <strong>de</strong> inflexão fica aproximadamente em β = −0.2328. ParaN = 100 em β = 0.95257. Para N = 1000 em β = 2.01804. Para N = 10000 emβ = 3.01638.Temos então evidência numérica que indica que para qualquer β 0 > 0, po<strong>de</strong>mos teruma medida com H R (β) não convexa no intervalo [0,β 0 ].Embora a H R possa não ser convexa em uma medida finita, fica em aberto se,quando a partição do espaço é refinada, a entropia <strong>de</strong> Rényi limite resulta ser sempreconvexa ou não.Estas questões se exten<strong>de</strong>m também para G(δ) e para M(δ).49


ApêndiceRecorrênciaNeste apêndice, apresentamos dois resultados referenciados no capítulo 4. Começamosmostrando uma condição necessária e suficiente para que a ca<strong>de</strong>ia <strong>de</strong> Markov {Y n } n≥0<strong>de</strong>finida na Seção 4.2, seja recorrente.Proposição A.4. A ca<strong>de</strong>ia <strong>de</strong> Markov {Y n } n≥0 <strong>de</strong>finida pelas transições em 4.1 érecorrente se e somente sem∏q i = 0.limm→+∞i=0Prova da Proposição A.4. Denotemos por T i o tempo <strong>de</strong> chegada ao estado i. Comoa ca<strong>de</strong>ia é irredutível estu<strong>de</strong>mos somente o estado 0. Assim,n−2∏n−1∏P(T 0 = n|X 0 = 0) = q 0 q 1 ...q n−2 (1 − q n−1 ) = q i−1 − q i .Sejam h 0 = 1 e h n = ∏ n−1i=0 q i para n ≥ 1. Então, a equação anterior po<strong>de</strong> ser escritacomoP(T 0 = n|X 0 = 0) = h n−1 − h n .Então, comoP(T 0 < ∞|X 0 = 0) =∞∑n=1i=0i=0(h n−1 − h n ) = 1 − limm→∞ h m,temos queP(T 0 < ∞|X 0 = 0) = 1 ⇐⇒ limm→∞m∏q i = 0.i=0Portanto, {Y n } n≥0 é recorrente se e somente selimm→∞m∏q i = 0.i=050


□No Lema 5.3 em ([13]) aparece também a condição para garantir que a ca<strong>de</strong>ia{Y n } n≥0 seja recorrente positiva.Lema A.1. A ca<strong>de</strong>ia <strong>de</strong> Markov {Y n } n≥0 <strong>de</strong>finida pelas transições em 4.1 é recorrentepositiva se e somente se+∞∑m∏q i < +∞.Prova.m=0 i=0Usando a notação da prova da Proposição 4.1 temos queE 0 (T 0 ) ==∞∑n(h n−1 − h n )n=1∞∑i=1= 1 +h i∞∑m=1 i=0m∏q i ,on<strong>de</strong> E 0 <strong>de</strong>nota o valor esperado começando o processo em 0.□Nas provas da Seção 4.2 foi usada uma proprieda<strong>de</strong> da Função zeta <strong>de</strong> Riemann.Começamos lembrando a <strong>de</strong>finição, para <strong>de</strong>pois mostrar uma <strong>de</strong>sigualda<strong>de</strong> útil para<strong>de</strong>finir as medidas das palavras no caso que foi construido nessa seção.Definição A.1. A Função zeta <strong>de</strong> Riemann, ζ(s), s ∈ C com Re(s) > 1, esta <strong>de</strong>finidapela seguinte soma+∞∑1ζ(s) =j s.j=1No seguinte lema encontramos limitantes para a cauda da Função zeta <strong>de</strong> Riemann.Lema A.2. Para s > 1,1(s − 1)n − 1 s−1 n ≤ ∑ ∞ sObserve que ∑ ∞i=n+2 = ζ(s) − ∑ n+1i=1Prova.1.i si=n+1511i ≤ 1s (s − 1)n s−1.


ζ(s) −n∑i=11i = ∑+∞ si=n+1∫1 +∞i = d⌊x⌋.s n i sUsando integração por partes, encontramos que essa última integral po<strong>de</strong> ser escritaem termos da parte fraccionaria assim∫ +∞nd⌊x⌋i son<strong>de</strong> {x} <strong>de</strong>nota a parte fraccionaria <strong>de</strong> x.Limitando esta última integral temos que∫ +∞= n1−ss − 1 − s {x}x s+1dx,nIsto é,Portanto,0


Conclusões e perguntas em abertoProvamos que o processo {X ∗ n} n≥0 é α−misturador e encontramos uma minoraçãopara a taxa α. A questão a respon<strong>de</strong>r: qual a taxa exata <strong>de</strong> α, ou, pelo menos, acharuma majoração.Outra questão é a <strong>de</strong>terminação <strong>de</strong> se a entropia métrica h <strong>de</strong> {X ∗ n} é positivaou nula (<strong>de</strong>pen<strong>de</strong>ndo ou não do parâmetro s). No caso <strong>de</strong> ser positiva, mostramosa possível discontinui<strong>de</strong> da entropia <strong>de</strong> Rényi, pois nesse caso H R (β) = 0 para todoβ > 0.Por último, como foi mencionado no final do Capítulo 5, nós perguntamos se aentropia <strong>de</strong> Rényi <strong>de</strong> um processo é sempre convexa para β > 0. Esta pergunta seexten<strong>de</strong> para G(δ) e M(δ), para 0 ≤ δ < 1. Observemos que a convexida<strong>de</strong> <strong>de</strong> G(δ)implicará automáticamente na <strong>de</strong> M(δ).Nota: O professor Benoit Saussol, membro da Comissão Julgadora, sugiriou umargumento para respon<strong>de</strong>r a segunda questão. Este argumento, <strong>de</strong>scrito a seguir, é<strong>de</strong>rivado da Proposição 5.4 e prova que a entropia do processo {X ∗ n} é positiva paratodo s > 1. Em particular, isto mostra a existência <strong>de</strong> processos on<strong>de</strong> as entropias <strong>de</strong>Rényi em β = 0 são discontinuas.No processo {X ∗ n}, para todo n ∈ N, consi<strong>de</strong>remos o conjuntoA n = {A n ∈ {a,b} n : o bloco baab pertence a A n }.Seja ν = p(baab). Claramente, ν > 0. Uma estimação do número <strong>de</strong> blocos em A n édada por nν.Então, como foi mostrado no Corolário 4.1, para qualquer palavra C ∈ {a,b} ngerada pelo processo {X ∗ n},p(C) ≤ e −κ(Na−Ba) ,sendo κ > 0, N a o número <strong>de</strong> a’s na palavra C e B a o número <strong>de</strong> blocos formadossomente com a’s.Queremos, portanto, <strong>de</strong>terminar a diferença N a − B a .Cada vez que encontramos um bloco baab na palavra A n , a quantida<strong>de</strong> N a aumentaem 2, e B a em 1, portanto, N a − B a aumenta em 1. Assim,N a − B a > nν.53


Logo, P(A n ) ≤ e −κνn .Portanto, usando a Proposição 5.4, concluimos queh({X ∗ n}) > 0.54


Referências Bibliográficas[1] ABADI, M. Sharp error terms and necessary conditions for exponential hittingtimes in mixing processes. Ann. Probab. v. 32, n. 1A, p.243–264, 2004.[2] ABADI, M. E GALVES A. Inequalities for the ocurrence times of rare events inmixing processes. The state of the art. Markov Proc. Relat. Fields. v. 7, n. 1,p.97–112, 2001.[3] ABADI, M. E VAIENTI S. Large <strong>de</strong>viations for short returns. Discrete and ContinuousDynamical Systems, Serie A, [no prelo].[4] ABADI, M. E VERGNE N. Sharp error terms for return time statistics un<strong>de</strong>rmixing conditions. Relatório técnico Mecc-Unicamp, 03/06. 2007.[5] AFRAIMOVICH, V., CHAZOTTES J.R. E SAUSSOL, B. Point-wise dimensionsfor Poincaré recurrence associated with maps and special flows. Discrete and ContinuousDynamical Systems. v. 9, 2003.[6] BOWEN, R. Equilibrium states and the ergodic theory of Anosov diffeomorphisms.Lecture notes in math. 470. Springer, 1975.[7] BRADLEY, C. R. Basic properties of strong mixing conditions. A survey andsome open questions. Probability Surveys. v. 2, p.107–144, 2005.[8] COLLET, P., GALVES, A. E SCHMITT, B. Repetition times for gibbsian sources.Nonlinearity. v. 12, p.1225-1237, 1999.[9] CORNFELD, I. P., FOMIN, S. V. E SINAI, Y.G. Ergodic Theory. Springer-Verlag,1982.[10] DAVIDSON, J. Stochastic Limit Theory. An Introduction for Econometricians.Oxford University Press, 1997.55


[11] DOUKHAN, P. Mixing. Properties and examples. Lecture Notes in Statistics.v. 85, Springer-Verlag, 1995.[12] ELLIS, R.S. Entropy, large <strong>de</strong>viations and statistical mechanics. Springer-Verlag,1985.[13] FERNÁNDEZ, R., FERRARI, P. E GALVES, A. Coupling, renewal and perfectsimulations of chains of infinite or<strong>de</strong>r. Vth Brazilian School of Probability.Ubatuba, S.P. Brazil, 2001.[14] FERRARI, F. E WYNER, A. Estimation of general stationary processes by variablelength Markov chains. Scandinavian Journal of Statistics. v. 30, p.458–480,2003.[15] GALVES, A. E SCHMITT, B. Inequalities for hitting times in mixing dynamicalsystems. Random Comput. Dyn. v. 5, p. 337–348, 1997.[16] ORNSTEIN D. E WEISS B. Entropy and data compression schemes. IEEE Trans.Inform. Theory v. 39, n. 1, p.78–83, 1993.[17] SAUSSOL, B., TROUBETZKOY, S. E VAIENTI, S. Recurrence, dimensions andLyapunov exponents. J. Stat. Phys. v. 106, p. 623–634, 2002.[18] SHIELDS, P. Waiting times: positive and negative results on the Wyner–Ziv problem.The Journal of Theoret. Probab., v. 6, n. 3,p. 499–519, 1993.[19] WYNER, A. E ZIV, J. Some assymptotic properties of the entropy of a stationaryergodic data source with appplications to data compression. IEEE Trans. Inform.Theory v. 35, n. 6, p.1250–1258, 1989.[20] ZYCZKOWSKI, K. Rényi extrapolation of Shannon entropy. ArXiv:quantph/0305062.2005.56

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!