Entropia de Tsallis

Na física, a Entropia de Tsallis é uma generalização da Entropia de Boltzmann–Gibbs.[1] Ela foi formulada em 1988 por Constantino Tsallis[2] como uma base para generalizar a mecânica estatística padrão. A relevância física da teoria de Tsallis foi muitas vezes debatida no cenário da literatura física mundial. Entretanto, Ao longo da década passada, pesquisadores têm mostrado que a matemática de Tsallis parece descrever acuradamente comportamentos em lei de potência em uma larga gama de fenômenos, desde a turbulência de fluidos até os fragmentos criados nas colisões de partículas de altas energias.

Sendo elas consequências derivadas dessa entropia não-aditiva, como a mecânica estatística não extensiva,[3] que generaliza a teoria de Boltzmann-Gibbs.

Dado um grupo de probabilidades discretas { p } {\displaystyle \{p\}} com a condição i p = 1 {\displaystyle \sum _{i}p=1} , e q {\displaystyle q} qualquer número real, a Entropia de Tsallis é definida como:

S q ( p ) = 1 q 1 ( 1 x p q ( x ) ) . {\displaystyle S_{q}(p)={1 \over q-1}\left(1-\sum _{x}p^{q}(x)\right).}

Nesse caso, p é a distribuição de probabilidade de interesse, e q é um parâmetro real. No limite, quando q → 1, a entropia de Boltzmann-Gibbs é recuperada.

Para distribuições de probabilidades contínuas, definimos a entropia como:

S q ( p ) = 1 q 1 ( 1 p q ( x ) d x ) , {\displaystyle S_{q}(p)={1 \over q-1}\left(1-\int p^{q}(x)\,dx\right),}

A Entropia de Tsallis tem sido usada em conjunto com o princípio da Máxima Entropia para derivar a distribuição de Tsallis.

Famílias exponenciais

Muitas distribuições comuns, como a distribuição normal, pertencem às famílias exponenciais estatísticas. A entropia de Tsallis para uma família exponencial[4][5] pode ser escrita[6] como:

H q T ( p F ( x ; θ ) ) = 1 1 q ( ( e F ( q θ ) q F ( θ ) ) E p [ e ( q 1 ) k ( x ) ] 1 ) {\displaystyle H_{q}^{T}(p_{F}(x;\theta ))={\frac {1}{1-q}}\left((e^{F(q\theta )-qF(\theta )})E_{p}[e^{(q-1)k(x)}]-1\right)}

onde F é log-normalizador e k o termo que indica a medida portadora. Para a normal multivariada,[7] o termo k é zero e, portanto, a entropia de Tsallis é fechada.

Referências

  1. E.T. Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391, 1965
  2. http://link.springer.com/article/10.1007%2FBF01016429
  3. Tsallis, Constantino (2009). Introduction to nonextensive statistical mechanics : approaching a complex world Online-Ausg. ed. New York: Springer. ISBN 978-0-387-85358-1 
  4. Andersen, Erling (Setembro de 1970). «Sufficiency and Exponential Families for Discrete Sample Spaces». Journal of the American Statistical Association, Vol. 65, No. 331. Journal of the American Statistical Association. 65 (331): 1248–1255. JSTOR 2284291. MR 268992. doi:10.2307/2284291 
  5. Kupperman, M. (1958) "Probabilities of Hypotheses and Information-Statistics in Sampling from Exponential-Class Populations", Annals of Mathematical Statistics, 9 (2), 571–575 JSTOR 2237349
  6. Nielsen, F.; Nock, R. (2012). «A closed-form expression for the Sharma–Mittal entropy of exponential families». Journal of Physics A: Mathematical and Theoretical. 45 (3). 032003 páginas. Bibcode:2012JPhA...45c2003N. arXiv:1112.4221Acessível livremente. doi:10.1088/1751-8113/45/3/032003 
  7. UIUC, Lecture 21. The Multivariate Normal Distribution, 21.5:"Finding the Density".

Ligações externas

  • Tsallis Statistics, Statistical Mechanics for Non-extensive Systems and Long-Range Interactions
Ícone de esboço Este artigo sobre Termodinâmica é um esboço. Você pode ajudar a Wikipédia expandindo-o.