Box-Cox-Transformation

Die Box-Cox-Transformation ist ein mathematisches Instrument der Regressionsanalyse und der Zeitreihenanalyse, mit dem eine Stabilisierung der Varianz erreicht werden soll. Die Formel lautet:

Y t ( λ ) = { ( Y t + c ) λ 1 λ f u ¨ r λ 0 ln ( Y t + c ) f u ¨ r λ = 0 {\displaystyle Y_{t}^{(\lambda )}=\left\{{\begin{matrix}{\dfrac {(Y_{t}+c)^{\lambda }-1}{\lambda }}&\quad \mathrm {f{\ddot {u}}r\;\;} \lambda \neq 0\\[10pt]\ln(Y_{t}+c)&\quad \mathrm {f{\ddot {u}}r\;\;} \lambda =0\end{matrix}}\right.}

Es gibt verschiedene Methoden, um geeignete Werte für λ {\displaystyle \lambda } zu finden. Zum Beispiel kann λ {\displaystyle \lambda } zusammen mit anderen Modellparametern mittels Maximum-Likelihood-Schätzung oder durch visuellen Vergleich der transformierten Daten bestimmt werden.

  • https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.boxcox.html

Literatur

  • George E. P. Box und David R. Cox: An analysis of transformations. Journal of the Royal Statistical Society Series B 26(2). 1964. S. 211–252. JSTOR:2984418