10.07.2015 Aufrufe

Statistik- Formel- sammlung

Statistik- Formel- sammlung

Statistik- Formel- sammlung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Formel</strong><strong>sammlung</strong> in <strong>Statistik</strong>Häufigkeitsverteilung und SummenverteilungZählindicesKlassierung von Dateni = 1,...,n zählt die Elemente der Urlistej = 1,...,m zählt die Merkmalsausprägungenk = 1,...,K zählt die Klassenx u k mit x u k+1 > x u k: untere Klassengrenzex o k = x u k+1 obere Klassengrenzex ∗ k = 1 2 (xu k + x o k) Klassenmitte (manchmal auch einfach x k )∆x k = x o k − x u k Klassenbreiteabsolute Häufigkeit h j bzw. h krelative HäufigkeitHäufigkeitsdichtenf j = h jn bzw. f k = h knh D k = h k∆x k, f D k = f k∆x k(nur klassierte Daten!)absolute Summenhäufigkeitj∑H j = H(X ≤ x j ) = h j ′ (für Klassen analog mit k)j ′ =1H(X > x j ) = n − H(X ≤ x j )j∑relative Summenhäufigkeit F j = F(X ≤ x j ) = f j ′ = H j /nj ′ =1Empirische Verteilungsfunktion(nichtklassierte Daten)Empirische Verteilungsfunktion(klassierte Daten)F(X > x j ) = 1 − F(X ≤ x j )⎧⎪⎨ 0 falls x < x 1 ,F(x) = 1 falls x > x m ,⎪⎩F j falls x j ≤ x < x j+1⎧⎪⎨ 0 falls x < x u 1,F(x) = 1 falls x > x o K,⎪⎩ F k−1 + ( )x−x u k fk∆x kfalls x u k ≤ x < x o kEmpirische Dichtefunktion(nur klassierte Daten)f(x) = dF(x)dx={0 falls x < xu1 oder x > x o K,f D kfalls x u k ≤ x < x o k1


Lagemaße (Mittelwerte & Co)arithmetisches Mittelarithmetisches Mittel derLinearkombination Y=a+bxharmonisches Mittel¯x = 1 n∑x ini=1(aus der Urliste)= 1 m∑ m∑h j x j = f j x jnj=1 j=1(aus den Merkmalsausprägungen)≈ 1 K∑ K∑h k x ∗ k = f k x ∗ knk=1 k=1(aus klassierten Daten)ȳ = a + b¯x¯x H =n∑ ni=1 1x ibzw.1m∑f jj=1x jbzw.1K∑f kk=1x ∗ k( n) 1∏ ngeometrisches Mittel ¯x G = x ii=1Modus bzw. Dichtemittel(klassierte Daten)¯x D = x ṷ k +f Ḓ k − fḒ k−12f Ḓ k − fḒ k−1 − fḒ k+1∆xˆkˆk: Klassenindex der Klasse mitmaximaler HäufigkeitsdichteMedian bzw. Zentralwert(geordnete Urliste)⎧⎪⎨x 0.5 =⎪⎩x [n+112(x [n2] + x [ n 2 +1] )2 ](n ungerade)(n gerade)Median bzw. Zentralwert(klassierte Daten)q-Quantilx 0.5 = x u k + 0.5 − F k ′ −1∆x ′ k ′f k ′mit k ′ so dass F k ′ −1 < 0.5, aber F k ′ ≥ 0.5,also die Klasse k ′ , innerhalb der F den Wert 0.5 annimmt.x q = x u k + q − F k ′ −1∆x ′ k ′f k ′mit k ′ so dass F k ′ −1 < q, aber F k ′ ≥ q,also die Klasse k ′ , innerhalb der F den Wert q annimmt.2


StreuungsmaßeBei klassierten Daten (Klassen k = 1,...,K) gelten alle Gleichungen nur näherungsweise. 1Varianzs 2 x = 1 n∑K∑(x i − ¯x) 2 bzw. f k (x ∗ k − ¯x) 2ni=1k=1In der Stichprobentheorie: zusätzlicher Faktor n/(n − 1)Varianz derLinearkombination Y=a+bxs 2 y = b 2 s 2 xStandardabweichung s x =√s 2 xVariationskoeffizientVerschiebungssatzSpannweitemittlere absoluteAbweichungV = s x¯x(nur sinnvoll, wenn alle x i > 0)n∑n∑(x i − ¯x) 2 = x 2 i − n¯x 2 bzw.i=1i=1K∑K∑(x ∗ k − ¯x) 2 f k = (x ∗ k) 2 f k − ¯x 2k=1k=1R = x max − x mins MAD = 1 n∑|x i − x 0.5 |ni=1Interquartilsabstand s IQ = x 0.75 − x 0.25Weitere Maße für die VerteilungsformN-tes zentrales MomentM N = 1 n∑(x i − ¯x) N (Urliste)ni=1m∑M N = (x j − ¯x) N f j (Merkmalsausprägungen)M N =j=1K∑k=1(x ∗ k − ¯x) N f k (klassierte Daten)Schiefe Γ = M 3s 3 xExzess (“Kurtosis”) K = M 4s 4 x− 31 Die <strong>Formel</strong>n hängen sehr von der Verteilung innerhalb der Klassen ab. Auch bei Gleichverteilung innerhalbder Klasen ist die aus klassierten Daten ermittelte Stichprobenvarianz nicht erwartungstreu, obwohl dies inden meisten Skripten und Lehrbüchern impliziert wird.3


Konzentrationsmaßen∑K∑Merkmalssumme M = x i = n¯x = x ∗ kh k (letzteres für klassierte Daten)i=1k=1relativer Anteil an Mp i = x iM bzw. p k = x∗ kh kM = x∗ kf k¯xi∑kumulierter relativer Anteil P i = p i ′i ′ =1(Urliste und klassierte Daten)n∑Herfindahl-Index K H = p 2 ii=1Exponentialindex K E =n∏i=1p p ii = p p 11 p p 22 ...p pnnPunkte der LorenzkurveGini-Koeffizient(0, 0) und (F i ,P i ), i = 1,...,n bzw. 1,...,Kmit F i der üblichen relativen Summenhäufigkeit.n∑G = 1 − i + P i−1 )i=1(P 1 n = 1 − 1 (2nn−1 ∑i=1P i + P n)(Urliste)K∑= 1 − (P k + P k−1 )f k (klassierte Daten)k=1Verhältnis- und IndexzahlenWachstumsfaktorPreisindex von LaspeyresPreisindex von PaascheI t = x tx t−1, Wachstumsrate r t = I t − 1P (L)0t =MengenP (P)0t =∑ ni=1p i (t)q i (0)∑ ni=1p i (0)q i (0) mit p i(t) den Preisen und q i (t) den∑ ni=1p i (t)q i (t)∑ ni=1p i (0)q i (t)Mengenindices von Laspeyresund PaascheQ (L)0t =∑ ni=1p i (0)q i (t)∑ ni=1p i (0)q i (0) ,Q(P) 0t =∑ ni=1p i (t)q i (t)∑ ni=1p i (t)q i (0)Wertindex W 0t =∑ ni=1p i (t)q i (t)∑ ni=1p i (0)q i (0)4


Bivariate Analyse: Kreuztabelle klassierter DatenRelative Häufigkeit f(x i ,y j ) = h(x i,y j )nabsolute Randhäufigkeiten h(x i ) =∑K yh(x i ,y j ), h(y j ) =j=1relative Randhäufigkeiten f(x i ) = h(x i)n , f(y j) = h(y j)nbedingte relativeHäufigkeitenf(x i |y j ) = h(x i,y j )h(y j )K x= f(x i,y j )f(y j )∑h(x i ,y j )i=1empirische UnabhängigkeitArithmetische Mittelwertef(x i ,y j ) = f(x i )f(y j ) für alle i,j¯x = 1 nȳ = 1 nK xK x∑x ∗ ∑ih(x i ) = x ∗ if(x i )i=1i=1∑K y ∑K yyjh(y ∗ j ) = yjf(y ∗ j )j=1j=15


Bivariate Analyse II: Regressionsanalyse:(Empirische) Kovarianzs xy = 1 n∑(x i − ¯x)(y i − ȳ) (Urliste)ni=1s xy = 1 n∑K x ∑K yi=1 j=1(x ∗ i − ¯x)(y ∗ j − ȳ)h(x i ,y j ) (Kreuztabelle)Verschiebungssatz für dieKovarianzlineare Regressionn∑n∑(x i − ¯x)(y i − ȳ) = x i y i − n¯xȳi=1i=1∑ ∑(x ∗ i − ¯x)(y j ∗ − ȳ)h(x i ,y j ) = ∑i jiŷ(x) = a + bx, a = ȳ − b¯xbzw.∑x ∗ iyjh(x ∗ i ,y j ) − n¯xȳjb = s xy=s 2 x∑xi y i − n¯xȳ∑ x2i − n¯x 2(allgemein)(Urliste)nichtlineare RegressionGrenzfunktion (=“absoluteElastizitätsfunktion”)(relative)ElastizitätsfunktionAufspaltung in erklärte undnichterklärte SchwankungAdditionsregel bei linearerRegressionBestimmtheitsmaßn∑ n∑Minimiere F = e 2 i = (y i − ŷ(x,a,b,...)) 2i=1 i=1bezüglich a,b, ... ⇒ ∂F ∂F= 0,∂a ∂b = 0,...g(x) = dŷdxǫ yx = x ŷdŷdx(y i − ȳ) = ∆ i + e i mit ∆ i = ŷ i − ȳ, e i = y i − ŷ in∑n∑ n∑(y i − ȳ) 2 = ∆ 2 i + e 2 ii=1i=1 i=1∑ ni=1e 2 iB = 1 − U = 1 − = 1 − s2 e(allgemein)ns 2 y s 2 y∑ ni=1B = s2 ∆ ∆ 2 i= (lineare Regression)s 2 y ns 2 y6


Bivariate Analyse III: Korrelationsanalyse(Maß-)Korrelationskoeffizient(nach Pearson)Zusammenhang mit Bestimmtheitsmaßder linearenRegressionRangkorrelationskoeffizientnach Spearmanr xy = s xys x s yB = r 2 xyr s = 1 − 6 ∑ ni=1 (R x i − R y i ) 2n(n 2 − 1)ZeitreihenAdditive Aufspaltungmultiplikative Aufspaltunggleitender Durchschnittder Ordnung τexponentielle GlättungY i = T i + K i + S i + U i = G i + S i + U iT = Trend, K = Konjunkturkomponente,G = T + K = glatte Komponente, S = Saisonkomponente,U = Rest.Y i = T i K i S i U i = G i S i U i⎧1 i+m ∑⎪⎨ y jȳ (τ) τ j=i−mi = (1 yi−m + y i+m⎪⎩τ 2)+ i+m−1 ∑y jj=i−m+1ŷ t = αy t + (1 − α)ŷ t−1 , ŷ 0 = y 0mit dem Glättungsparameter α = 1 − e − 1 ττ ungerade, m = τ−12 ,τ gerade, m = τ 2 .Berechnung der Saisonfigur˜Sj = 1 n∑(y ij − ȳ (τ)ij ),ni=1S j = ˜S j − 1 ττ∑j ′ =1˜S j ′,i = Index der Perioden, j = Index innerhalb jeder Periode.Bei trendfreien Zeitreihen ist ˜S j = S j sowie ȳ (τ)ij = ȳ.7


Zufall und WahrscheinlichkeitBedingte WahrscheinlichkeitUnabhängig-StochastischekeitP(A|B) = P(A, falls B eingetreten ist)P(A|B) = P(A) bzw. P(B|A) = P(B)Additionstheorem P(A ∪ B) = P(A) + P(B) − P(A ∩ B)MultiplikationstheoremTotale Wahrscheinlichkeitbei sich einander ausschließendenEreignissen A kP(A ∩ B) = P(B)P(A|B) = P(A)P(B|A)P(B) = ∑ kP(B|A k )P(A k )Theorem von Bayes P(A k |B) = P(B|A k)P(A k )P(B)Zufallsvariable (ZV) und WahrscheinlichkeitsfunktionWahrscheinlichkeitsfunktiondiskreter ZVdiskre-Verteilungsfunktionter ZVWahrscheinlichkeitsdichte stetigerZVp(x i ) = P(X = x i ) = p iF(x) = P(X ≤ x) = ∑p(x i )f(x) = dFdxVerteilungsfunktion stetigerZV F(x) = P(X ≤ x) =Wahrscheinlichkeit eines Intervalls(X diskret oder stetig)x i ≤x∫xx ′ =−∞P(a ≤ X ≤ b) = F(b) − F(a)P(X > a) = 1 − F(a)f(x ′ ) dx ′ErwartungswertVarianzE(X) = ∑ x i p(x i ) (diskrete Zufallsvariable)i∫= ∞ xf(x) dx (stetige Zufallsvariable)x=−∞V (X) = E(X − E(X)) 2= ∑ [x i − E(X)] 2 p(x i ) (diskrete Zufallsvariable)i∫= ∞ [x − E(X)] 2 f(x) dx (stetige Zufallsvariable)x=−∞Kovarianz Cov(X,Y ) = E(XY ) − E(X)E(Y )E(XY ) = ∑ ∑x i y j p(x i ,y j )i j∫= ∞ ∞∫xyf(x,y) dx dy−∞ −∞(diskrete Zufallsvariable)(ststige Zufallsvariable)8


Diskrete theoretische VerteilungenFakultät n! = n · (n − 1) · (n − 2) · · · (1)Binomialkoeffizient( )N N(N − 1)...(N − n + 1)= =nn!BinomialverteilungX ∼ B(n;θ)Vertei-Hypergeometrischelung X ∼ H(N;n;M)P(X = x) = p (n,θ)B (x) =(nxP(X = x) = p (N,n,M)H (x) =)( Mxθ x (1 − θ) n−x) ( ) N − Mn − x( ) NnN!n!(N − n)!PoissonverteilungX ∼ Po(µ)P(X = x) = p (µ)P (x) = µx e −µx!Stetige theoretische VerteilungenDichte der GleichverteilungX ∼ G(a,b){ 1f (a,b) falls a ≤ x ≤ b,G (x) =b−a0 sonst.ExponentialverteilungX ∼ E(λ){f (λ) λe−λxx ≥ 0E (x) =0 sonst,E(X) =√V (X) = 1 λZusammenhang Exponentialverteilungmit PoissonverteilungNormalverteilungX ∼ N(µ,σ 2 )Standardnormalverteilung Z = X − µσRechenregeln zur Anwendungder Tabelle von Φn ∼ Po(µ) ⇔ ∆ ∼ E(µ/T)n = Zahl der Ereignisse im Zeitraum T∆ = Abstände zweier Ereignissef (µ,σ2 )N (x) = 1σ √ 2π e−(x−µ)2 2σ 2 , E(X) = µ, V (X) = σ 2F (µ,σ2 )N (x) = ΦΦ(−x) = 1 − Φ(x)∼ N(0; 1), F(z) = F (0,1)N (x) =: Φ(z)( ) x − µσ9


Funktionen von ZV und Zentraler GrenzwertsatzWahrscheinlichkeitsdichte einer(monoton steigenden)Funktion Z = g(X) einer ZVWahrscheinlichkeitsdichteder Summe Z = X 1 + X 2zweier unabhängiger ZVVerteilungsfunktionder Summe Z = X 1 + X 2zweier unabhängiger ZVf Z (z) =f Z (z) =[ ]fX (x)g ′ (x)x=g −1 (z)∫ ∞−∞f 1 (x)f 2 (z − x)dxmit f i (x) den Wahrscheinlichkeitsdichten von X iF Z (z) =∫ ∞−∞f 1 (x)F 2 (z − x)dx =∫ ∞−∞mit F i (x) den Verteilungsfunktionen von X iF 1 (x)f 2 (z − x)dxSonderfall Normalverteilung X 1 ∼ N(µ 1 ,σ 2 1), X 2 ∼ N(µ 2 ,σ 2 2) ⇒ Z ∼ N(µ 1 +µ 2 ,σ 2 1+σ 2 2)Erwartungswert und Varianzvon Z = aX + bE(Z) = aE(X) + b,V (Z) = a 2 V (X)Erwartungswert und Varianzvon Z = aX + bYErwartungswert und Varianzder Summe Z n = ∑ ni=1 a i X i unabhängigerZVE(Z) = aE(X) + bE(Y )V (Z) = a 2 V (X) + b 2 V (Y ) + 2abCov(X,Y )∑E(Z n ) = n a i E(X i )i=1∑V (Z n ) = n a 2 iV (X i )i=1Zentraler Grenzwertsatz für Z n ≈ N(µ,σ 2 ) mit µ = E(Z n ), σ 2 = V (Z n )die Summe Z n = ∑ ni=1 a i X iVoraussetzungen: Alle X i unabhängig und kein Einzelbetragder Varianz größer als σ 2 /30. Die X i können beliebige (!!)diskrete oder stetige ZV mit endlicher Varianz sein10


Induktive <strong>Statistik</strong>: ParameterschätzungSchätzer für den MittelwertSchätzer für den AnteilswertSchätzer für die Varianz (vgl.die Fußnote auf S. 3)Schätzer für die Koeffizientender linearen RegressionY = aX + bˆµ = ¯Xˆθi = f i = h inˆσ 2 = S 2 = 1n − 1n∑(X i − ¯X) 2 bzw.i=1â = Ȳ − ˆb ¯X∑ ni=1(X i Y i ) −ˆb ¯XȲ= ∑ ni=1Xi 2 − ¯X ,2nn − 1K∑f k (x ∗ k − ¯x) 2k=1Gauß-<strong>Statistik</strong> (Mittelwertbei bekannter Varianz undAnteilswert)t-<strong>Statistik</strong> (Mittelwert beiunbekannter Varianz)Z = ¯X − µ √ n ∼ N(0; 1)σT = ¯X − µ √ n ∼ T(n − 1)Sχ 2 -<strong>Statistik</strong> (Varianz) Q =(n − 1)S2σ 2 ∼ χ 2 (n − 1)Konfidenzintervall (KI) fürden Mittelwert bei bekannterVarianz Hier und im Folgendenwerden “Rezepte” wie KIs und Testsals Realisierungen (also mit kleinemxquer, s etc) und nicht als Zufallsgroessen(Xquer, S, etc) formuliertKonfidenzintervall für denAnteilswertKonfidenzintervall für denMittelwert bei unbekannterVarianzKonfidenzintervalle für denRegressionskoeffizienten bKonfidenzintervall der Regressionsfunktiony = a + bx√σ N − nµ ∈ ¯x ± z 1−α/2 √nN − 1z 1−α/2 Tabelliertes Quantil der Gauß-<strong>Statistik</strong>,α Fehlerwahrscheinlichkeit(z.B. α = 5% ⇒ z 1−α/2 = z 0.975 = 1.96)√ N−nN−1Korrekturfaktor für endliche Grundgesamtheitenmit N Elementen (=1, falls N ≫ n)√ √f(1 − f) N − nθ ∈ f ± z 1−α/2n N − 1mit f der relativen Häufigkeit in der Stichprobe. Bedingung:nf(1 − f) ≥ 9µ ∈ ¯x ± t (n−1) s1−α/2√ nmit t (n−1)q dem tabellierten q-Quantil der t-<strong>Statistik</strong> mit (n−1)“Freiheitsgraden”b ∈ ˆb ± t (n−2)1−α/2 ˆσ b, ˆσ b 2 = ˆσ2 R, ˆσns 2 R 2 = 1x n − 2y ∈ â + ˆbx ± t (n−2)1−α/2√ √√√ˆσ√ R (x − ¯x)21 + n s 2 xn∑i=1( ) 2y i − ŷ(x i )11


Induktive <strong>Statistik</strong>: Parametrische TestsTestvariable für Test des Mittelwertesauf Wert µ 0 bei bekannterVarianzTest des Anteilswertes aufZ = √f−θ 0Wert θ 0Test des Mittelwertes bei unbekannterVarianzZ = ¯X−µ 0√σ n ∼ N(0, 1); Realisierung: zθ 0 (1−θ 0 )√ n√ N−1N−nT = ¯X−µ 0√S n ∼ T(n − 1); Realisierung: tTest der VarianzQ = (n−1)S2σ 2 0∼ χ 2 (n − 1); Realisierung: qTest der Korrelation ρ(x,y)auf Wert 0Test des Koeffizienten b derlinearen Regressionŷ(x) = ax + b auf Wert b 0sowie die Regression selbstauf den Wert ŷ 0 (x)T ρ = rxy √ n−2 √1−rxy ∼ T(n − 2)T b = √ n ( ) ˆB − sx b0ˆσ R∼ T(n − 2)T y(x) = ( Ŷ (x) − y 0 (x)) ) √s√ x n∼ T(n − 2)ˆσ R s 2 x +(x−¯x)2Â = Ȳ − ˆB¯x, ˆB =1 ∑ ( ni=1ns 2 Yi − Ȳ ) (x i − ¯x)xˆσ R 2 = 1 ∑ ( nn=1 Yi − Ŷ (x n−2 i) ) 2, s2x = 1 ∑ ni=1(xn i − ¯x) 2 .Zweiseitiger TestNullhypothese µ = µ 0 bzw. θ = θ 0 bzw. ρ xy = 0kann abgelehnt werden, falls|z| > z 1−α/2 (Mittelwert bei bekannter Varianzund Anteilswert)|t| > t (n−1)1−α/2(Mittelwert bei unbekannter Varianz)q /∈ [ q (n−1)α/2,q (n−1) ]1−α/2(Varianz)|t| > t (n−2)1−α/2(Korrelation).Einseitiger Test auf ”größer” Nullhypothese µ > µ 0 bzw. θ > θ 0 bzw. ρ xy > 0kann abgelehnt werden, fallsz < −z 1−α (Mittelwert bei bekannter Varianzund Anteilswert)t < −t (n−1)1−α (Mittelwert bei unbekannter Varianz)q < q α(n−1) (Varianz)t < −t (n−2)1−α (Korrelation).Einseitiger Test auf ”kleiner”Nullhypothese µ < µ 0 bzw. θ < θ 0 bzw. ρ xy < 0kann abgelehnt werden, fallsz > z 1−α (Mittelwert bei bekannter Varianzund Anteilswert)t > t (n−1)1−α (Mittelwert bei unbekannter Varianz)q > q (n−1)1−α (Varianz)t > t (n−2)1−α (Korrelation).12


Induktive <strong>Statistik</strong>: Nichtparametrische TestsTestvariable für denχ 2 -Anpassungstest(K∑ (hk − h eQ =k) 2 ) ( )K∑ h2= k− n ∼ χ 2 (K − 1 − r)k=1h e k k=1h e kr Zahl der zu schätzenden Parameter,n = ∑ k h k Zahl der Beobachtungen,K Zahl der Klassen,h e k theoretischer Mittelwert für abs. Häufigkeit h kbei Zutreffen der NullhypotheseBedingung für denχ 2 -Anpassungstesth e k ≥ 5für alle Klassen kTestergebnisTestvariable für denχ 2 -Unabhängigkeitstestχ 2 -Homogenitätstest(Test auf gleicheGrundgesamtheit)Testvariable für denKolmogorow-Smirnow-Anpassungstest(KS-Test)Entscheidung beimKS-TestH 0 nicht verwerfbar, falls für die Realisierung q von Q gilt:q < q (K−1−r)1−αK x K∑ y( ∑ (hij − h eQ =ij) 2 )K x K∑ y( ) ∑ h2= ij− n ∼ χ 2 (m)i=1 j=1h e ij i=1 j=1h e ijK x ,K yZahl der Klassen,m = (K x − 1)(K y − 1) Zahl der Freiheitsgrade,h e ij = h(x i)h(y j )Abs. Häufigkeitnbei Zutreffen der Nullhypotheseh(x i ),h(y j ) Spalten- und Zeilensummen = ∑ j h(y j ) Gesamtzahl der TabellenelementeQ wie beim Unabhängigkeitstest mitK x Zahl der Klassen der Verteilung,K y = M Zahl der Stichproben∣D = max ∣F(x) − F (0) (x) ∣ ∣x∼ D(n)F(x) Verteilungsfunktion der Stichprobe,F (0) (x) Verteilungsfunktion bei Zutreffen der Nullhypothesen StichprobenumfangH 0 nicht verwerfbar, falls für die Realisierung d von D gilt:c(α)d ≤ d n,1−α ≈ √ n + 0.12 +0.11 √ nmitα 0.010 0.025 0.050 0.100c(α) 1.628 1.480 1.358 1.22413

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!