9 Modellspezifikationen

Im Folgenden wird dargestellt, wie die verschiedenen Modelle (\(\tau\)-parallel, essentiell-\(\tau\)-äquivalent und \(\tau\)-kongenerisch) jeweils spezifiziert werden. Für jedes der Modelle werden noch einmal kurz die notwendigen testtheoretischen Grundlagen zusammengefasst. Darauf folgend wird die Syntax und der jeweils dazugehörige Output Schritt für Schritt erklärt.

Zusätzlich steht euch das Video zum \(\tau\)-parallelen Modell zur Verfügung, in dem die Spezifikation eines \(\tau\)-parallelen Modells in lavaanGUI Schritt für Schritt erklärt wird. Ihr könnt das Video hier - (Link: ??? ) aufrufen.

9.1 Das allgemeine Messmodell

Betrachtet wird eine latente Variable \(\eta\) (z.B. Empathie, Selbststeuerung), die durch eure Tests bzw. Fragebögen \(Y_1, Y_2, \dots, Y_i\) gemessen werden soll.

Nach der klassischen Testtheorie ergeben sich die Werte auf den beobachteten Variablen nach folgendem Modell:

\[\begin{align} Y_1 = \alpha_1 + &\lambda_1 \eta + \epsilon_1 \notag\\ Y_2 = \alpha_2 + &\lambda_2 \eta + \epsilon_2 \notag\\ &\vdots \notag\\ Y_i = \alpha_i + &\lambda_i \eta + \epsilon_i \notag \end{align}\]

Für das \(\alpha\) findet man in manchen Lehrbüchern auch die Bezeichnung \(\lambda\)_0. Dann entsprechen die Modellgleichungen den Folgenden:

\[\begin{align} Y_1 = \lambda_{10} + &\lambda_{11} \cdot \eta + \epsilon_1 \notag\\ Y_2 = \lambda_{20} + &\lambda_{21} \cdot \eta + \epsilon_2 \notag\\ &\vdots \notag\\ Y_i = \lambda_{i0} + &\lambda_{i1} \cdot \eta + \epsilon_i \notag \end{align}\]

Beachtet, dass es sich hierbei um die allgemeinste Schreibweise des Messmodells handelt. Das heißt, hier wurden noch keine Annahmen über die \(\alpha\)/\(\lambda_0\), \(\lambda_1\) oder \(\epsilon\) gemacht.

Das allgemeinste Modell lässt sich in lavaan mit folgender Syntax schätzen:

Der Operator =~ heißt soviel wie “wird gemessen durch”, wie in Kapitel @ref (Grundlagen) beschrieben. Die Syntaxzeile sagt also: “\(\eta\) wird gemessen durch \(Y_1\), \(Y_2\) usw.”

Im Folgenden werden die verschiedenen Modelle der KTT und deren Umsetzung in der lavaanGUI vorgestellt. Die folgende Grafik zeigt die Hierarchie bezüglich der Restriktivität der beschriebenen Modelle:

Hierarchie der KTT-Modelle

Figure 9.1: Hierarchie der KTT-Modelle

9.2 Das \(\tau\)-parallele Modell

Das \(\tau\)-parallele Modell ist das strikteste und strengste der Testmodelle der klassischen Testtheorie. Es trifft drei modellspezifische Annahmen:

  • \(\tau\)-Äquivalenz: \(\tau_i\) = \(\tau_j\)
  • Unkorreliertheit der Messfehler: Cov (\(\epsilon_i\), \(\epsilon_j\)) = 0, i\(\neq\)j
  • Gleichheit der Fehlervarianzen: Var (\(\epsilon_i\)) = Var (\(\epsilon_j\))

Aus den Annahmen und den generellen Annahmen der KTT gehen die Modellgleichungen für \(\tau\)-parallele Items hervor:

\[\begin{align} Y_1 = 0 + & 1 \cdot \eta + \epsilon_1 \notag\\ Y_2 = 0 + & 1 \cdot \eta + \epsilon_2 \notag\\ &\vdots \notag\\ Y_i = 0 + & 1 \cdot \eta + \epsilon_i \notag \end{align}\]

Es gilt zusätzlich: Var(\(\epsilon_1\)) = Var(\(\epsilon_2\)) = Var(\(\epsilon_i\)) und Cov(\(\epsilon_i\), \(\epsilon_j\)) = 0, i \(\neq\) j

Die Modellgleichungen werden im Pfaddiagramm des Messmodells widergespiegelt:

Pfadmodell $  au$ paralleles Messmodell

Figure 9.2: Pfadmodell $ au$ paralleles Messmodell

9.2.1 Der Beispieldatensatz

Der Beispieldatensatz, an hand dessen das \(\tau\) parallele Messmodell demonstriert wird, ist ein Datensatz der aus vier Items besteht. Mit Hilfe dieser vier Items wurde die Skala Gute/Schlechte Stimmung erhoben.

9.2.2 Eta \(\eta\)

Im Modell \(\tau\) paralleler Items haben alle Items die gleiche Ladung \(\lambda_{x1}\) = 1. Dies wird in der Syntax des \(\tau\) parallelen Messmodells folgendermaßen umgesetzt:

Sprich: \(\eta\) wird gemessen durch die Items y1 - y4, deren Ladungen auf den Wert “1” fixiert werden.

Im Output wird dies unter “Latente Variables” angezeigt:

Latente Variables tau paralleles Messmodell

Figure 9.3: Latente Variables tau paralleles Messmodell

In der Spalte “Estimator” wird jeweils die Ladung der manifesten Variablen auf der latente Variable \(\eta\) angegeben.

9.2.3 Mittelwert von \(\eta\)

In \(\tau\) parallelen Messmodellen wird keine Normierung verwendet, weswegen der Mittelwert und die Varianz von \(\eta\) frei geschätzt werden. Hierzu wird in die Syntax folende Befehlszeile geschrieben:

Die Zeile bedeutet, dass der Mittelwert von \(\eta\) frei geschätzt wird. Im Output findet man diese Befehlszeile unter den Intercepts wieder:

Mittelwert von eta

Figure 9.4: Mittelwert von eta

Unter der Spalte “Estimator” in der Zeile “eta” wird der Schätzer für den Mittelwert von eta (E(\(\eta\))) wiedergegeben. Dahinter wird, wie in Kapitel ?? beschrieben, der Standardfehler, der zugehörige z- und p-Wert angegeben.

9.2.4 Varianz von \(\eta\)

Im \(\tau\) parallelen Messmodell gilt, wie oben erwähnt, dass auch die Varianz von \(\eta\) frei geschätzt wird. Dies bewirkt man über folgende Befehlszeile:

Varianz von eta

Figure 9.5: Varianz von eta

Auch für die Varianz von \(\eta\) wird in der Spalte “Estimator” in der Zeile “eta” der Schätzer für die Varianz von eta (Var(\(\eta\))) angegeben. Auch hier werden wie in Kapitel ?? beschrieben, der Standardfehler sowie der zugehörige z- und p-Wert angegeben.

9.2.5 Fehlervarianzen der Items

Die Annahmen des \(\tau\) parallelen Messmodell besagen, dass die Fehlervarianzen aller manifesten Variablen (=Items) identisch sind (siehe 9.2). Um dies auch in der Syntax von lavaanGUI umzusetzen, werden folgende Befehle verwendet:

Wichtig ist hier darauf zu achten, dass die Bezeichnung der Fehlervarianezn (veps) für alle manifesten Varibalen identisch ist.

Fehlervarianzen der manifesten Variablen

Figure 9.6: Fehlervarianzen der manifesten Variablen

Unterhalb der Zeile “eta” werden die manifesten Variablen jeweils mit einem Punkt vor dem Variablennamen aufgeführt. Wofür die Punkte stehen könnt ihr in Kapitel 8 nachlesen. In diesem Output ist deutlich erkennbar, dass alle Fehlervarianzen identisch sind, was sowohl auf den Estimator als auch auf den Standardfehler und z- und p-Werte zutrifft, und auch den selben Namen (veps) tragen. Das ist eines der Kennzeichen, an denen man ein \(\tau\)paralleles Modell nur an einem Outputfile erkennen kann.

9.2.6 Intercepts der Items

Die Intercepts aller manifesten Variablen werden im Modell \(\tau\) paralleler Variablen auf den Wert “0” fixiert. Dies erreicht man über folgende Befehleszeile:

Alternativ kann für jede manifeste Variable einzeln das jeweilige Intercept festgelegt werden:

Im Output des Modells wird die Eingabe der Syntax unter der Rubrik “Intercepts” widergegeben. Für das hier spezifizierte \(\tau\)parallele Modell sind alle Intercepts der manifesten Variablen auf “0” fixiert, was daran zu erkennen ist, dass alle manifesten Variablen einen Estimator von “0” haben. Dies ist ein weiteres Kennzeichen eines \(\tau\) parallelen Modells.
Intercepts der manifesten Variablen

Figure 9.7: Intercepts der manifesten Variablen

9.2.7 Teststatistiken der Beispielberechnung

In den vorausgehenden Kapiteln wurde jeweils nur der relevante Teil des Outputs dargestellt. Unter lavaan Results wird jeweils der gesamte Output dargestellt, der neben den bereits besprochenen Parameterschätzern, im Falle des hier verwendenten \(\tau\) parallelen Modells folgendermaßen aussieht:

Die oben besprochenen Parameterschätzer werden unterhalb der Teststatistiken dargestellt. Den Aufbau der Teststatistiken und deren Hintergrund wurde in Kapitel @ref (Teststatistiken) bereits erklärt. Für das hier berechnete \(\tau\) parallele Modell sprechen die Teststatistiken für/gegen einen Modellfit.

  • Der \(\chi\)2 Test spricht gegen einen Modellfit. Die “Model Fit Test Statistic” von \(\chi\)2 = 104.300 ist mehr als 3 mal größer als die Anzahl der Freiheitsgrade dF = 11. Der p-Wert ist hoch signifikant. Die Nullhypothese, dass die modellimplizierte Varianz-Kovarianz-Matrix der empirischen Matrix entspricht muss verworfen werden.
  • CFI und TLI sprechen ebenfalls gegen einen Modellfit, da beide Werte die Grenze von 0.95 nicht überschreiten.
  • Auf Grund des hohen “Root Mean Square Error of Approximation” von RMSEA = 0.131 würde man ebenfalls von einem schlechten Modellfit sprechen.

Alle vier Teststatistiken sprechen gegen einen guten Modellfit. Ein \(\tau\) paralleles Modell passt daher nicht auf die Daten. Dies hat Implikationen für die Berechnung der Reliabilität des Summenscores. In Modellen \(\tau\)-paralleler Items wird die Reliabilität des Summenscores über die Spearman-Brown Formel berechnet. Liegt kein Fit der Daten an das Messmodell vor, darf die Spearman-Brown Formel nicht verwendet werden, da sie die Reliabilität überschätzen würde. Stellt man fest, dass ein restriktives Modell nicht an die vorliegenden Daten fittet, geht man zum nächsten, weniger restriktiven Modell, hier das essentiell \(\tau\)-äquivalente Modell, über, und testet dieses auf einen Modellfit. Je nachdem welches Modell fittet, verwendet man verschiedene Berechnungen der Reliabilität des Summenscores. Die Berechnungsweisen werden jeweils beim entsprechenden Modell vorgestellt.

9.2.8 Berechnung der Reliabilität der manifesten Variablen

Die Reliabilität dermanifesten Variablen in einem \(\tau\) parallelen Modell ist für alle manifesten Variablen identisch. Dies ergibt sich aus den Annahmen der KTT und des \(\tau\) parallelen Modells, da diese beinhalten, dass die Fehlervarianzen aller Variablen gleich sind. Betrachtet man die Formel der Reliabilität der manifesten Variablen \[ Rel (y1) = \frac {Var(\eta)}{(Var(\eta) + Var(\epsilon_1))} \] bzw. \[ Rel (y1) = \frac{Var (\eta)} {Var (y1)} \]

sieht man daher, dass diese für alle manifesten Variablen das gleiche Ergebnis produziert, da gilt: Var(epsilon_1) = Var (epsilon_2) = Var (epsilon_i).

Um auch im lavaan Output die Reliabilität der Items ausgegeben zu bekommen, wird folgende Syntaxzeile verwendet:

Dabei steht “rely” für die Reliabilität des Items y. Diese wird berechnet (:=) durch die Division der Varianz von \(\eta\) (veta) durch die Varianz von \(\eta\) (veta) plus die Fehlervarianz der Variable (veps).

Die Ergebnisse der zusätzlichen Berechnungen werden unterhalb der Parameter Estimates im lavaan Output dargestellt.

9.2.9 Berechnung der Reliabilität des Summenscores

Um die Reliabilität des Summenscores der verwendeten manifesten Variablen zu berechnen, wird im Falle, dass ein \(\tau\) paralleles Modell auf die vorliegenden Daten passt, die Spearman-Brown Formel verwendet:
\[ Rel (S) = \frac {m*Rel(y)}{1+(m-1)*Rel(y)} \] Um die Spearman-Brown Formel auch in lavaanGUI zu verwenden wird folgende Synaxzeile verwendet:

Hat man die Reliabilität der manifesten Variablen im Vorhinein nicht, wie hier, in einer Variable “rely” berechnet und dadurch gespeichert, sollte man dies vorher tun oder an der Stelle “rely” den entsprechenden Wert der Reliabilität der Items einsetzen. Das Ergebnis der Berechnung wird ebenfalls unterhalb der Parameters Estimates im lavaan Output dargestellt.

9.2.10 Berechnung weiterer Kennwerte

Über die Reliabilität der Items und des Summenscores hinaus, können weiterhin 95% Konfidenzintervalle für einzelne Personenwerte berechnet werden. Um die Konfidenzintervalle berechnen zu können, muss zunächst der Standardfehler berechnet werden. Für die Berechnung der Konfidenzintervalle kann nicht der Standardmessfehler verwendet werden, der für jeden Schätzer unter den Parameter Estimates angeführt wird. Dieser bezieht sich ausschließlich auf die Unsicherheit des jeweiligen Schätzer. Der Standardmessfehler, der für die Berechnung der Konfidenzintervalle gebraucht wird, bezieht sich hingegen auf die Unsicherheit des Rückschlusses gemessener Werte (Antworten auf Items) auf die Person. Er wird berechnet als die Quadratwurzel aus der Fehlervarianz der manisten Variablen:

\[ Se = \sqrt {Var(\epsilon)} \] Die Syntax zur Berechnung des Standardmessfehlers lautet:

Der mathematische Operator “sqrt()” stellt, wie in Kapitel 3 die Quadratwurzel dar.

Auf dieser Grundlage können nun Konfidenzintervalle berechnet werden. Um die Syntax zu erleichtern, wird zunächst der Wert, für den ein Konfidenzintervall berechnet werden soll, als eigene Variable gespeichert. In unserem Beispiel nehmen wir den Wert 6, den eine Person auf der manifesten Variable y1 angegeben hat:

Das Konfidenzintervall für diesen Personenwert kann nun, mit Hilfe des zuvor berechneten Standardmessfehlers, folgendermaßen berechnet werden:

Der Wert von 1.96, mit dem der Standardmessfehler berechnet wird, leitet sich aus der Definition des 95% Konfidenzintervalls ab und kann in den entsprechenden Tabellen nachgelesen werden.

Die Ergebnisse der Berechnung des Standardmessfehlers und des Konfidenzintervalls werden gemeinsam mit den weiteren Berechnungen unterhalb der Parameter Estimates ausgegeben.

9.3 Das essentiell \(\tau\)-äquivalente Modell

Das essentiell \(\tau\)-äquivalente Modell ist weniger restriktiv als das \(\tau\)-parallele Modell aber restriktiver als das \(\tau\)-kongenerische Modell. Es trifft zwei modellspezifische Annahmen, die sich teilweise mit denen, des \(\tau\)-parallelen Modells überschneiden:

  • essentielle \(\tau\)-Äquivalenz: \(\tau_i\) = \(\lambda_{ij}\) + \(\tau_j\)
  • Unkorreliertheit der Messfehler: Cov (\(\epsilon_i\), \(\epsilon_j\)) = 0, i\(\neq\)j

Aus diesen Annahmen folgt, dass alle Testwertvariablen die gleiche True Score Variable haben, die sich jeweils nur durch eine additive Verschiebung unterscheidet. Diese additive Verschiebung \(\lambda_i\) ist für ein Item über alle Personen hinweg konstant, unterscheidet sich aber zwischen Items.

Ungleich zum \(\tau\)-parallelen Modell, ist die Skala der gemeinsamen latenten Variable \(\eta\) willkürlich und muss festgelegt werden. Diesen Vorgang nennt man Normierung. Für die Normierung um essentiell \(\tau\)-äquivalenten Modell stehen verschiedene Möglichkeiten zur Verfügung. Die zwei häufigsten und im Folgenden verwendeten sind:

  • E(\(\eta\)) = 0
  • \(\lambda_1\) = 0 (woraus folgt: E(\(\eta\)) = E (Y1))

Die erste Normierungsmöglichkeit bedeutet, dass der Mittelwert der gemeinsamen latenten Variable \(\eta\) auf dem Wert 0 fixiert wird. Die zweite Möglichkeit fixiert den ersten Schwierigkeitsparameter \(\lambda_1\) auf den Wert “0”. Daraus folgt, dass die Erwartungswert der gemeinsamen latenten Variable \(\eta\) dem Erwartungswert (= Mittelwert) von y1 entspricht.

Aus den Annahmen und den generellen Annahmen der KTT gehen die Modellgleichungen für essentiell \(\tau\)-äquivalente Items hervor (hier fixiert durch E(\(\eta\)) = 0):

\[\begin{align} Y_1 = \lambda_1 + &1\cdot\eta + \epsilon_1 \notag\\ Y_2 = \lambda_2 + &1\cdot\eta + \epsilon_2 \notag\\ &\vdots \notag\\ Y_i = \lambda_i + &1\cdot\eta + \epsilon_i \notag \end{align}\]

Im Modell essentiell \(\tau\)-äquivalenter Variablen werden die True Scores einer Variablen somit durch den Term \(\lambda_i\) + \(\eta\) definiert, wenn die die Skala durch E(\(\eta\)) = 0 fixiert wurde.

Wird das Messmodell durch \(\lambda_1\) = 0 fixiert, entsprechen die Modellgleichungen den Folgenden:

\[\begin{align} Y_1 = 0 + &1\cdot\eta + \epsilon_1\notag\\ Y_2 = \lambda_2 + &1\cdot\eta + \epsilon_2\notag\\ &\vdots\notag\\ Y_i = \lambda_i + &1\cdot\eta + \epsilon_i\notag \end{align}\]

Die Gleichung für y1 ergibt sich aus der Definition des True Scores in essentiell \(\tau\)-äquivalenten Modellen: \(\tau_i\) = \(\lambda_i\) + \(\eta\). Wenn der ersten Schwierigkeitsparameter auf 0 fixiert ist (\(\lambda_1\) = 0), entspricht somit der True Score der latenten Variable:

\[\begin{align} \tau_1 &= \lambda_1 + \eta\notag\\ &= 0 + \eta\notag\\ &= \eta\notag \end{align}\]

Da die Normierung nur für den ersten Schwierigkeitsparameter gilt, entsprechen die Modellgleichungen für die restlichen Variablen denen, der alternativen Normierungsmöglichkeit.

Die Modellgleichungen werden im Pfaddiagramm des Messmodells widergespiegelt. Das Messmodell entspricht dem eines \(\tau\)-paralleleln Messmodells, da Leichtigkeitsparameter nicht in Pfadmodelle eingezeichent werden:

Pfadmodell essentiell tau-äquivalentes Messmodell

Figure 9.8: Pfadmodell essentiell tau-äquivalentes Messmodell

Zusätzlich kann am Pfadmodell auch die Art der Fixierung der Skala nicht abgelesen werden. Diese muss zusätzlich angegeben werden.

9.3.1 Der Beispieldatensatz

Das Modell essentiell \(\tau\)-äquivalenter Items wird ebenfalls, wie auch das \(\tau\)-parallele Modell, am Beispielsdatensatz der guten und schlechten Stimmung demonstriert.

9.3.2 Eta \(\eta\)

Auch im Modell essentiell \(\tau\)-äquivalenter Items haben alle Items die gleiche Ladung \(\lambda\)x1 = 1. Dies wird in der Syntax folgendermaßen umgesetzt:

Sprich: \(\eta\) wird gemessen durch die Items y1 - y4, deren Ladungen auf den Wert “1” fixiert werden.

Im Output wird dies unter “Latente Variables” angezeigt:

Latente Variables essentiell tau-aequivalentes Messmodell

Figure 9.9: Latente Variables essentiell tau-aequivalentes Messmodell

In der Spalte “Estimator” wird jeweils die Ladung der manifesten Variablen auf der latente Variable \(\eta\) angegeben.

9.3.3 Mittelwert von \(\eta\)

Je nach Normierung wird in essentiell \(\tau\)-äquivalenten Messmodellen der Mittelwert von \(\eta\) unterschiedlich definiert. Für die Normierung über E(\(\eta\)) = 0, wird der Mittelwert auf den Wert 0 fixiert:

Wird die Normierung \(\lambda_1\) = 0 verwendet, wird der Mittelwert von \(\eta\) frei geschätzt:

Im Output findet man diese Befehlszeile unter den Intercepts wieder (Im Folgenden werden das Outputbeispiel anhand der Normierung E(\(\eta\)) = 0 dargestellt. Der Output der Normierung mit \(\lambda_1\) = 0 wird weiter unten gesammelt dargestellt):

Mittelwert von eta

Figure 9.10: Mittelwert von eta

Unter der Spalte “Estimator” in der Zeile “eta” wird der Schätzer für den Mittelwert von eta (E(\(\eta\))) wiedergegeben. Dahinter wird, wie in Kapitel ?? beschrieben, der Standardfehler, der zugehörige z- und p-Wert angegeben.

9.3.4 Varianz von \(\eta\)

Im essentiell \(\tau\)-äquivalenten Messmodell gilt, wie im \(\tau\) parallelen Messmodell auch, dass die Varianz von \(\eta\) frei geschätzt wird. Es wird die gleiche Syntaxzeile verwendet, wie auch im \(\tau\)-parallelen Modell.

Varianz von eta

Figure 9.11: Varianz von eta

Auch für die Varianz von \(\eta\) wird in der Spalte “Estimator” in der Zeile “eta” der Schätzer für die Varianz von eta (Var(\(\eta\))) angegeben. Auch hier werden wie in Kapitel ?? beschrieben, der Standardfehler sowie der zugehörige z- und p-Wert angegeben.

9.3.5 Fehlervarianzen der Items

Im Gegensatz zum \(\tau\)-parallelen Messmodell ist es keine Annahme des essentiell \(\tau\)-äquivalenten Messmodells, dass die Fehlervarianzen aller manifesten Variablen identisch sind. Die Fehlervarianzen der Items unterscheiden sich. Um dies in der lavaanGUI Syntax umzusetzen, erhält jedes Item einen eigenen Namen:

Fehlervarianzen der manifesten Variablen

Figure 9.12: Fehlervarianzen der manifesten Variablen

Unterhalb der Zeile “eta” werden die manifesten Variablen jeweils mit einem Punkt vor dem Variablennamen aufgeführt. Wofür die Punkte stehen könnt ihr in Kapitel 8 nachlesen. Am Output ist erkennbar, dass sich die Schätzer der Fehlervarianzen über alle Items hinweg unterscheiden. Dies trifft sowohl auf die Schätzer (Estimator), als auch auf die Standardfehler und die zugehörigen z-Werte zu.

9.3.6 Intercepts der Items

Die Intercepts aller manifesten Variablen werden im Modell essentiell \(\tau\)-äquivalenter Variablen frei geschätzt. Dazu muss man die Syntax des \(\tau\)-parallelen Modells nur leicht abändern, und an Stelle der “0” ein “NA” eintragen:

Auch hier kann die Befehlszeile alternativ wieder in vier Befehlszeilen aufgeteilt werden, um für jede Variable einzeln zu definieren, wie deren Intercept geschätzt werden soll.

Im Output des Modells wird die Eingabe der Syntax unter der Rubrik “Intercepts” widergegeben. Da die Intercepts jeweils frei geschätzt wurden, haben alle Schätzer der Intercepts der manifesten Variablen jeweils einen anderen Wert.
Intercepts der manifesten Variablen

Figure 9.13: Intercepts der manifesten Variablen

9.3.7 Teststatistiken der Beispielberechnung

Um die Güte des Modellfits zu bestimmen, müssen wieder die Teststatistiken zu Rate gezogen werden. Im Folgenden sind die Outputs des definierten essentiell \(\tau\)-äquivalenten Messmodells aufgeführt. Zu oberst der Output für die Normierung E(\(\eta\)) = 0 und darunter der für die Normierung \(\lambda_1\) = 0.

#### Essentiell tau-äquivalentes Modell
# Normierung: E(eta) = 0
lavaan 0.6-3 ended normally after 19 iterations

  Optimization method                           NLMINB
  Number of free parameters                          9

                                                  Used       Total
  Number of observations                           494         503

  Estimator                                         ML
  Model Fit Test Statistic                       6.870
  Degrees of freedom                                 5
  P-value (Chi-square)                           0.230

Model test baseline model:

  Minimum Function Test Statistic              917.615
  Degrees of freedom                                 6
  P-value                                        0.000

User model versus baseline model:

  Comparative Fit Index (CFI)                    0.998
  Tucker-Lewis Index (TLI)                       0.998

Loglikelihood and Information Criteria:

  Loglikelihood user model (H0)              -3491.502
  Loglikelihood unrestricted model (H1)      -3488.067

  Number of free parameters                          9
  Akaike (AIC)                                7001.004
  Bayesian (BIC)                              7038.826
  Sample-size adjusted Bayesian (BIC)         7010.260

Root Mean Square Error of Approximation:

  RMSEA                                          0.028
  90 Percent Confidence Interval          0.000  0.073
  P-value RMSEA <= 0.05                          0.747

Standardized Root Mean Square Residual:

  SRMR                                           0.037

Parameter Estimates:

  Information                                 Expected
  Information saturated (h1) model          Structured
  Standard Errors                             Standard

Latent Variables:
                   Estimate  Std.Err  z-value  P(>|z|)   
  eta =~                                                       
    y1                1.000                               
    y2                1.000                              
    y3                1.000                               
    y4                1.000                              

Intercepts:
                   Estimate  Std.Err  z-value  P(>|z|)  
   .y1                6.690    0.081   83.008    0.000   
   .y2                6.945    0.080   87.158    0.000    
   .y3                6.800    0.079   85.667    0.000    
   .y4                6.283    0.082   76.834    0.000    
    eta               0.000                               

Variances:
                   Estimate  Std.Err  z-value  P(>|z|)   
    eta     (veta)    1.978    0.146   13.595    0.000    
   .y1      (vps1)    1.231    0.100   12.272    0.000    
   .y2      (vps2)    1.159    0.096   12.053    0.000    
   .y3      (vps3)    1.134    0.095   11.972    0.000    
   .y4      (vps4)    1.325    0.106   12.523    0.000    
#### Essentiell tau-äquivalentes Modell
# Normierung: lambda 1 = 0
lavaan 0.6-3 ended normally after 37 iterations

  Optimization method                           NLMINB
  Number of free parameters                          9

                                                  Used       Total
  Number of observations                           494         503

  Estimator                                         ML
  Model Fit Test Statistic                       6.870
  Degrees of freedom                                 5
  P-value (Chi-square)                           0.230

Model test baseline model:

  Minimum Function Test Statistic              917.615
  Degrees of freedom                                 6
  P-value                                        0.000

User model versus baseline model:

  Comparative Fit Index (CFI)                    0.998
  Tucker-Lewis Index (TLI)                       0.998

Loglikelihood and Information Criteria:

  Loglikelihood user model (H0)              -3491.502
  Loglikelihood unrestricted model (H1)      -3488.067

  Number of free parameters                          9
  Akaike (AIC)                                7001.004
  Bayesian (BIC)                              7038.826
  Sample-size adjusted Bayesian (BIC)         7010.260

Root Mean Square Error of Approximation:

  RMSEA                                          0.028
  90 Percent Confidence Interval          0.000  0.073
  P-value RMSEA <= 0.05                          0.747

Standardized Root Mean Square Residual:

  SRMR                                           0.037

Parameter Estimates:

  Information                                 Expected
  Information saturated (h1) model          Structured
  Standard Errors                             Standard

Latent Variables:
                   Estimate  Std.Err  z-value  P(>|z|)   
  eta =~                                                       
    y1                1.000                               
    y2                1.000                              
    y3                1.000                               
    y4                1.000                               

Intercepts:
                   Estimate  Std.Err  z-value  P(>|z|)  
   .y1                0.000                               
   .y2                0.255    0.070    3.667    0.000    
   .y3                0.109    0.069    1.580    0.114    
   .y4               -0.407    0.072   -5.656    0.000   
    eta               6.690    0.081   83.008    0.000    

Variances:
                   Estimate  Std.Err  z-value  P(>|z|)  
    eta     (veta)    1.978    0.146   13.595    0.000   
   .y1      (vps1)    1.231    0.100   12.272    0.000    
   .y2      (vps2)    1.159    0.096   12.053    0.000   
   .y3      (vps3)    1.134    0.095   11.972    0.000    
   .y4      (vps4)    1.325    0.106   12.523    0.000    

Die Outputs unterscheiden sich nur in den Schätzern der Parameter, die Teststatistiken sind unter beiden Normierungen die gleichen. In diesem Modell sprechen die Teststatistiken für einen Modellfit eines essentiell \(\tau\)-äquivalenten Modells.

  • Der \(\chi\)2 Test spricht für einen Modellfit. Die “Model Fit Test Statistic” von \(\chi\)2 = 6.870 ist kleiner als die doppelten Freiheitsgrade dF = 5 (0 < \(\chi\)2 = 6.870 < 2*dF=5). Der p-Wert ist nicht signifikant, weswegen die Nullhypothese, dass die modellimplizierte Varianz-Kovarianz-Matrix der empirischen Matrix entspricht beibehalten werden kann.
  • CFI und TLI sprechen ebenfalls für einen Modellfit, da beide Werte die Grenze von 0.95 für einen guten Modellfit überschreiten.
  • Auf Grund des niedrigen “Root Mean Square Error of Approximation” von RMSEA = 0.028, der unterhalb der Grenze von 0.05 liegt, würde man ebenfalls von einem guten Modellfit sprechen.

Alle vier Teststatistiken sprechen dafür, dass ein essentiell \(\tau\)-äquivalentes Modell auf die Daten passt. Daher kann die Reliabilität des Summenscores über die Formel von Cronbachs \(\alpha\) berechnet werden.

9.3.8 Berechnung der Reliabilität der manifesten Variablen

In essentiell \(\tau\)-äquivalenten Modellen unterscheiden sich die Reliabilitäten der einzelnen Items, da, anders als beim \(\tau\)-parallelen Modell, die Fehlervarianzen der Items unterschiedlich sind. Die Formel der Reliabilitätsberechnung manifester Variablen lautet: \[ Rel (y1) = \frac {Cov(Yi, Yj)}{Var (Yi)} = \frac {Var(\eta)}{(Var(\eta) + Var(\epsilon_1))} \]

Um auch im lavaan Output die Reliabilität der Items ausgegeben zu bekommen, werden folgende Syntaxzeilen verwendet:

Dabei steht “relyi” für die Reliabilität des Items yi. Diese wird berechnet (:=) durch die Division der Varianz von \(\eta\) (veta) durch die Varianz von \(\eta\) (veta) plus die Fehlervarianz der jeweiligen Variable (vepsi).

Die Ergebnisse der zusätzlichen Berechnungen werden unterhalb der Parameter Estimates im lavaan Output dargestellt.

9.3.9 Berechnung der Reliabilität des Summenscores

Um die Reliabilität des Summenscores der verwendeten manifesten Variablen zu berechnen, wird im Falle, dass ein essentiell \(\tau\)-äquivalentes Modell auf die vorliegenden Daten passt, Cronbachs \(\alpha\) verwendet:
\[ Rel (S) = \frac {m^2}{m*(m-1) + \sum \limits_{i=1}^m \frac {1}{Rel(yi)}} \] Um Cronbachs \(\alpha\) auch in lavaanGUI zu verwenden wird folgende Synaxzeile verwendet:

Hat man die Reliabilität der manifesten Variablen im Vorhinein nicht, wie hier, in einer Variable “relyi” berechnet und dadurch gespeichert, sollte man dies vorher tun oder an der Stelle “relyi” den entsprechenden Wert der Reliabilität der Items einsetzen. Das Ergebnis der Berechnung wird ebenfalls unterhalb der Parameters Estimates im lavaan Output dargestellt.

9.4 Das \(\tau\)-kongenerische Modell

Das \(\tau\)-kongenerische Modell ist das am wenigsten restriktive Messmodell der KTT. Es trifft zwei modellspezifische Annahmen:

  • \(\tau\)-Kongenerität: \(\tau_i\) = \(\lambda_{ij0}\) + \(\lambda_{ij1}\cdot\tau_j\), \(\lambda_{ij1}\) > 0
  • Unkorreliertheit der Messfehler: Cov (\(\epsilon_i\), \(\epsilon_j\)) = 0, i\(\neq\)j

Aus diesen Annahmen folgt, dass alle Testwertvariablen lineare Funktionen voneinander sind. Personen unterscheiden sich in der (innerhalb einer Person) konstanten additiven Verschiebung \(\lambda ij0\). Zusätzlich unterscheiden sie sich auch in einer multiplikativen Verschiebung voneinander. Diese multiplikative Verschiebung bildet die Ladung \(\lambda ij1\) ab. Der Unterschied zu den bisherigen beiden Modellen besteht darin, dass die wahren Werte zweier Personen A und B nun nicht mehr auf allen Variablen um nur 1 auseinander liegen, wie das bei einer Ladung von 1 der Fall ist. Unterschiede zwischen Personen werden unterschiedlich abgebildet, was sie nicht mehr direkt miteinander vergleichbar macht.

Wie auch im essentiell \(\tau\)-äquivalenten Messmodell, ist die Skala der gemeinsamen latenten Variable \(\eta\) willkürlich und muss normiert werden. Auch im \(\tau\)-kongenerischen Modell bestehen verschiedene Möglichkeiten der Normierung. Die zwei häufigsten und im Folgenden verwendeten sind:

  • E(\(\eta\)) = 0 und Var(\(\eta\)) = 1
  • \(\lambda_{10}\) = 0 und \(\lambda_{11}\) = 1, (woraus folgt: E(\(\eta\)) = E (\(\tau_1\)))

Die erste Normierungsmöglichkeit bedeutet, dass der Mittelwert der gemeinsamen latenten Variable \(\eta\) auf dem Wert 0 fixiert wird und die Varianz der latenten Variable \(\eta\) auf 1. Die zweite Möglichkeit fixiert den ersten Schwierigkeitsparameter \(\lambda_{10}\) auf den Wert 0 und die Ladung \(\lambda_{11}\) auf 1. Daraus folgt, dass die Erwartungswert der gemeinsamen latenten Variable \(\eta\) dem ersten True Score (\(\tau_1\)) entspricht.

Aus den Annahmen und den generellen Annahmen der KTT gehen die Modellgleichungen für \(\tau\)-kongenerische Items hervor (hier fixiert durch E(\(\eta\)) = 0 und Var (\(\eta\)) = 1):

\[\begin{align} Y_1 = \lambda_{10} &+ \lambda_{11}\cdot\eta + \epsilon_1\notag\\ Y_2 = \lambda_{20} &+ \lambda_{21}\cdot\eta + \epsilon_2\notag\\ &\vdots\notag\\ Y_i = \lambda_{i0} &+ \lambda_{i1}\cdot\eta + \epsilon_i\notag \end{align}\]

Im Modell \(\tau\)-kongenerischer Variablen werden die True Scores einer Variablen somit durch den Term \(\lambda\) i0 + \(\lambda\)i1 *\(\eta\) definiert, wenn die die Skala durch E(\(\eta\)) = 0 Var (\(\eta\)) = 1) fixiert wurde.

Wird das Messmodell durch \(\lambda_{10}\) = 0 und \(\lambda_{11}\) = 1 fixiert, entsprechen die Modellgleichungen den Folgenden:

\[\begin{align} Y_1 = 0 &+ 1\cdot\eta + \epsilon_1\\ Y_2 = \lambda_{20} &+ \lambda_{21}\cdot\eta + \epsilon_2\\ &\vdots\\ Y_i = \lambda_{i0} &+ \lambda_{i1}\cdot\eta + \epsilon_i \end{align}\] Die Gleichung für y1 ergibt sich aus der Definition des True Scores in \(\tau\)-kongenerischen Modellen: \(\tau_i\) = \(\lambda_{i0}\) + \(\lambda_{i1}\cdot\eta\). Wenn der ersten Schwierigkeitsparameter auf 0 fixiert ist (\(\lambda_{10}\) = 0) und die erste Ladung auf 1 (\(\lambda_{11}\) = 1), entspricht somit der erste True Score der latenten Variable:

\[\begin{align} \tau_1 &= \lambda_{10} + \lambda_{11}\cdot\eta\\ &= 0 + 1\cdot\eta\\ &= \eta \end{align}\]

Da die Normierung nur für den ersten Schwierigkeitsparameter und Ladung gilt, entsprechen die Modellgleichungen für die restlichen Variablen denen, der alternativen Normierungsmöglichkeit.

Die Modellgleichungen werden im Pfaddiagramm des Messmodells widergespiegelt. Das Messmodell unterscheidet sich von dem eines \(\tau\)-paralleleln und essentiell \(\tau\)-äquivalenten Messmodells, da Ladungen (\(\lambda_{i1}\)) in das Pfadmodell eingezeichnet werden:

Pfadmodell tau-kongenerisches Messmodell

Figure 9.14: Pfadmodell tau-kongenerisches Messmodell

Am Pfadmodell kann die Art der Fixierung der Skala nicht abgelesen werden. Diese muss zusätzlich angegeben werden.

9.4.1 Der Beispieldatensatz

Das Modell \(\tau\)-kongenerischer Items wird, wie auch das essentiell \(\tau\)-äquivalente und \(\tau\)-parallele Modell, am Beispielsdatensatz der guten und schlechten Stimmung demonstriert.

9.4.2 Eta \(\eta\)

In den zwei vorangegangenen, restriktiven Modellen essentiell \(\tau\)-äquivalenter und \(\tau\)-paralleler Items, waren die Ladungen jeweils auf 1 fixiert. Im am wenigsten restriktiven Modell der \(\tau\)-kongenerischen Items trifft bezüglich der Ladungen keine Annahmen. Sie werden im \(\tau\)-kongenerischen Modell freigeschätzt. In der Syntax wird dies folgendermaßen umgesetzt:

Sprich: \(\eta\) wird gemessen durch die Items y1 - y4, deren Ladungen frei geschätzt werden (NA*yi). Zusätzlich erhalten die Ladungen jeweils Namen (lai1*yi).

Im Output wird dies unter “Latente Variables” angezeigt:

Latente Variables tau-kongenerisches Messmodell

Figure 9.15: Latente Variables tau-kongenerisches Messmodell

In der Spalte “Estimator” wird jeweils die Ladung der manifesten Variablen auf der latente Variable \(\eta\) angegeben.

9.4.3 Mittelwert von \(\eta\)

Je nach Normierung wird in \(\tau\)-kongenerischen Messmodellen der Mittelwert von \(\eta\) unterschiedlich definiert. Für die Normierung über E(\(\eta\)) = 0 und Var(\(\eta\)) = 1, wird der Mittelwert auf den Wert 0 fixiert:

Wird die Normierung \(\lambda\) 10 = 0 und \(\lambda\) 11 = 1 verwendet, wird der Mittelwert von \(\eta\) frei geschätzt:

Im Output findet man diese Befehlszeile unter den Intercepts wieder (Im Folgenden werden das Outputbeispiel anhand der Normierung E(\(\eta\)) = 0 und Var(\(\eta\)) = 1 dargestellt. Der Output der Normierung mit \(\lambda_{10}\) = 0 und \(\lambda_{11}\) = 1 wird weiter unten gesammelt dargestellt):

Mittelwert von eta

Figure 9.16: Mittelwert von eta

Unter der Spalte “Estimator” in der Zeile “eta” wird der Schätzer für den Mittelwert von eta (E(\(\eta\))) wiedergegeben. Dahinter wird, wie in Kapitel ?? beschrieben, der Standardfehler, der zugehörige z- und p-Wert angegeben.

9.4.4 Varianz von \(\eta\)

Auch die Berechnung der Varianz von \(\eta\) hängt von der Wahl der Normierung ab. Um die Varianz der latenten Variable \(\eta\) auf 1 zu fixieren wird folgende Befehlszeile verwendet:

Um die Normierung über \(\lambda_{10}\) und \(\lambda_{11}\) zu verwenden, wir die Varianz der latenten Variable \(\eta\) frei geschätzt. Dafür wird die folgende Befehlszeile verwendet:

Varianz von eta

Figure 9.17: Varianz von eta

Auch für die Varianz von \(\eta\) wird in der Spalte “Estimator” in der Zeile “eta” der Schätzer für die Varianz von eta (Var(\(\eta\))) angegeben. Auch hier werden wie in Kapitel ?? beschrieben, der Standardfehler sowie der zugehörige z- und p-Wert angegeben.

9.4.5 Fehlervarianzen der Items

Auch das \(\tau\)-kongenerische Messmodell macht keine Annahme darüber, dass die Fehlervarianzen aller manifesten Variablen identisch sind. Die Fehlervarianzen der Items unterscheiden sich. Um dies in der lavaanGUI Syntax umzusetzen, erhält jedes Item einen eigenen Namen, wie im essentiell \(\tau\)-äquivalenten Modell:

Fehlervarianzen der manifesten Variablen

Figure 9.18: Fehlervarianzen der manifesten Variablen

Unterhalb der Zeile “eta” werden die manifesten Variablen jeweils mit einem Punkt vor dem Variablennamen aufgeführt. Wofür die Punkte stehen könnt ihr in Kapitel 8 nachlesen. Am Output ist erkennbar, dass sich die Schätzer der Fehlervarianzen über alle Items hinweg unterscheiden. Dies trifft sowohl auf die Schätzer (Estimator), als auch auf die Standardfehler und die zugehörigen z-Werte zu.

9.4.6 Intercepts der Items

Das Modell \(\tau\)-kongenerischer Items beinhaltet ebenfalls das freie Schätzen der Intercepts der manifesten Variablen. Um in der Syntax die Schwierigkeitskoeffizienten von die Ladung zu unterscheiden, erhalten auch die Intercepts Namen. Dazu werden folgende Syntaxzeilen verwendet:

Im Output des Modells wird die Eingabe der Syntax unter der Rubrik “Intercepts” widergegeben. Da die Intercepts jeweils frei geschätzt wurden, haben alle Schätzer der Intercepts der manifesten Variablen jeweils einen anderen Wert. Der Name der Schwierigkeitskoeffizienten wird jeweils in der zweiten Spalte, nach der ursprünglichen Bezeichnung der Items, angegeben.

Intercepts der manifesten Variablen

Figure 9.19: Intercepts der manifesten Variablen

9.4.7 Teststatistiken der Beispielberechnung

Um die Güte des Modellfits zu bestimmen, müssen wieder die Teststatistiken zu Rate gezogen werden. Im Folgenden sind die Outputs des definierten \(\tau\)-kongenerischen Messmodells aufgeführt. Zu oberst der Output für die Normierung E(\(\eta\)) = 0 und Var(\(\eta\)) = 1, darunter der für die Normierung \(\lambda_{10}\) = 0 und \(\lambda_{11}\) = 1.

#### Tau kongenerisches Modell 
# Normierung: E(eta) = 0, Var(eta) = 1
lavaan 0.6-3 ended normally after 14 iterations

  Optimization method                           NLMINB
  Number of free parameters                         12

                                                  Used       Total
  Number of observations                           494         503

  Estimator                                         ML
  Model Fit Test Statistic                       0.352
  Degrees of freedom                                 2
  P-value (Chi-square)                           0.838

Model test baseline model:

  Minimum Function Test Statistic              917.615
  Degrees of freedom                                 6
  P-value                                        0.000

User model versus baseline model:

  Comparative Fit Index (CFI)                    1.000
  Tucker-Lewis Index (TLI)                       1.005

Loglikelihood and Information Criteria:

  Loglikelihood user model (H0)              -3488.243
  Loglikelihood unrestricted model (H1)      -3488.067

  Number of free parameters                         12
  Akaike (AIC)                                7000.486
  Bayesian (BIC)                              7050.916
  Sample-size adjusted Bayesian (BIC)         7012.828

Root Mean Square Error of Approximation:

  RMSEA                                          0.000
  90 Percent Confidence Interval          0.000  0.051
  P-value RMSEA <= 0.05                          0.948

Standardized Root Mean Square Residual:

  SRMR                                           0.003

Parameter Estimates:

  Information                                 Expected
  Information saturated (h1) model          Structured
  Standard Errors                             Standard

Latent Variables:
                   Estimate  Std.Err  z-value  P(>|z|)   
  eta =~                                                                
    y1      (la11)    1.378    0.071   19.371    0.000    
    y2      (la21)    1.490    0.071   20.856    0.000    
    y3      (la31)    1.447    0.071   20.511    0.000    
    y4      (la41)    1.299    0.071   18.207    0.000    

Intercepts:
                   Estimate  Std.Err  z-value  P(>|z|)   
    eta               0.000                              
   .y1      (la10)    6.690    0.080   83.795    0.000    
   .y2      (la20)    6.945    0.082   84.787    0.000    
   .y3      (la30)    6.800    0.080   84.474    0.000    
   .y4      (la40)    6.283    0.079   79.818    0.000   

Variances:
                   Estimate  Std.Err  z-value  P(>|z|)   
    eta               1.000                             
   .y1      (vps1)    1.251    0.105   11.965    0.000   
   .y2      (vps2)    1.095    0.103   10.669    0.000   
   .y3      (vps3)    1.107    0.101   11.009    0.000   
   .y4      (vps4)    1.374    0.108   12.708    0.000   
#### Tau-kongenerisches Modell 
# Normierung: lambda 10 = 0, lambda11 = 1
lavaan 0.6-3 ended normally after 50 iterations

  Optimization method                           NLMINB
  Number of free parameters                         12

                                                  Used       Total
  Number of observations                           494         503

  Estimator                                         ML
  Model Fit Test Statistic                       0.352
  Degrees of freedom                                 2
  P-value (Chi-square)                           0.838

Model test baseline model:

  Minimum Function Test Statistic              917.615
  Degrees of freedom                                 6
  P-value                                        0.000

User model versus baseline model:

  Comparative Fit Index (CFI)                    1.000
  Tucker-Lewis Index (TLI)                       1.005

Loglikelihood and Information Criteria:

  Loglikelihood user model (H0)              -3488.243
  Loglikelihood unrestricted model (H1)      -3488.067

  Number of free parameters                         12
  Akaike (AIC)                                7000.486
  Bayesian (BIC)                              7050.916
  Sample-size adjusted Bayesian (BIC)         7012.828

Root Mean Square Error of Approximation:

  RMSEA                                          0.000
  90 Percent Confidence Interval          0.000  0.051
  P-value RMSEA <= 0.05                          0.948

Standardized Root Mean Square Residual:

  SRMR                                           0.003

Parameter Estimates:

  Information                                 Expected
  Information saturated (h1) model          Structured
  Standard Errors                             Standard

Latent Variables:
                   Estimate  Std.Err  z-value  P(>|z|)   
  eta =~                                                                
    y1      (la11)    1.000                               
    y2      (la21)    1.081    0.060   18.031    0.000    
    y3      (la31)    1.050    0.059   17.843    0.000    
    y4      (la41)    0.943    0.058   16.348    0.000    

Intercepts:
                   Estimate  Std.Err  z-value  P(>|z|)  
    eta               6.690    0.080   83.795    0.000    
   .y1      (la10)    0.000                               
   .y2      (la20)   -0.290    0.408   -0.711    0.477   
   .y3      (la30)   -0.226    0.400   -0.566    0.571   
   .y4      (la40)   -0.024    0.392   -0.061    0.951   

Variances:
                   Estimate  Std.Err  z-value  P(>|z|)  
    eta     (veta)    1.898    0.196    9.685    0.000    
   .y1      (vps1)    1.251    0.105   11.965    0.000    
   .y2      (vps2)    1.095    0.103   10.669    0.000    
   .y3      (vps3)    1.107    0.101   11.009    0.000    
   .y4      (vps4)    1.374    0.108   12.708    0.000

Die Outputs unterscheiden sich nur in den Schätzern der Parameter, die Teststatistiken sind unter beiden Normierungen die gleichen. In diesem Modell sprechen die Teststatistiken für einen Modellfit eines \(\tau\)-kongenerischen Modells.

  • Der \(\chi\)2 Test spricht für einen Modellfit. Die “Model Fit Test Statistic” von \(\chi\)2 = 0.352 ist kleiner als die doppelten Freiheitsgrade dF = 2 (0 < \(\chi\)2 = 0.352 < 2*dF=2). Der p-Wert ist nicht signifikant, weswegen die Nullhypothese, dass die modellimplizierte Varianz-Kovarianz-Matrix der empirischen Matrix entspricht beibehalten werden kann.
  • CFI und TLI sprechen ebenfalls für einen Modellfit, da beide Werte die Grenze von 0.95 für einen guten Modellfit überschreiten.
  • Auf Grund des niedrigen “Root Mean Square Error of Approximation” von RMSEA = 0.000, der unterhalb der Grenze von 0.05 liegt, würde man ebenfalls von einem guten Modellfit sprechen.

Alle vier Teststatistiken sprechen dafür, dass ein \(\tau\)-kongenerisches Modell auf die Daten passt. Wenn man die Fitindices (\(\chi\)2, CFI, TLI und RMSEA) betrachtet, fällt auf, dass die Werte sehr stark für einen Modellfit sprechen. Die Grenze für den RMSEA liegt bei 0.05. In der vorliegenden Analyse des \(\tau\)-kongenerischen Modells liegt der RMSEA Wert von 0.000 weit unterhalb dieser Grenze. Ähnliches gilt für die anderen Teststatistiken. Auf Grundlage dieser Analyseergebnisse wäre es ratsam, ein restriktiveres Modell, wie beispielsweise ein essentiell \(\tau\)-äquivalentes Modell zu testen. Dies haben wir im vorhergehenden Kapitel @ref (essentielltauaquivalentesModell) getan. Die Ergebnisse sprachen für einen Modellfit eines essentiell \(\tau\)-äquivalentes Modells. Daraus folgt in logischer Konsequent, dass ein weniger restriktives Modell, wie das \(\tau\)-kongenerische Modell, ebenfalls an die Daten fittet. Passt ein \(\tau\)-kongenerisches Modell auf die vorliegenden Daten, kann die Reliabilität des Summenscores durch Anwendung der Formel für McDonald’s Omega berechnet werden.

9.4.8 Berechnung der Reliabilität der manifesten Variablen

Wie auch in essentiell \(\tau\)-äquivalenten Modellen, unterscheiden sich auch in \(\tau\)-kongenerischen Modellen die Reliabilitäten der einzelnen manifesten Variablen. Die Formel der Reliabilitätsberechnung manifester Variablen lautet: \[ Rel (yi) = \frac {Var (\tau i)} {Var (\tau i) + Var (\epsilon i)} \] In \(\tau\)-kongenerischen Modellen setzt sich die Varianz eines Items yi folgendermaßen zusammen: \[ Var(yi) = Var (\lambda i0 + \lambda i1 * \eta + \epsilon i) \] Um diese Gleichung nun aufzulösen, kann \(\lambda\)i0 vernachlässigt werden, da es eine Konstante ist. Die Fehlervarianz des Items kann ohne weitere Umformungen ausgeklammert werden. Dann bleibt stehen: \[ Var (yi) = Var (\lambda i1 * \eta) + Var (\epsilon i) \] Um auch \(\lambda\) i1 ausklammern zu können, muss dieses quadriert werden. Nach dieser weiteren Umformung würde die Gleichung folgendermaßen aussehen: \[ Var (yi) = \lambda i1^2 * Var (\eta) + Var (\epsilon i) \] Wird die erste Normierungsmöglichkeit (E(\(\eta\)) = 0 und Var(\(\eta\)) = 1) verwendet, bleibt nur noch folgender Term stehen:

\[ Var (yi) = \lambda i1^2 * 1 + Var (\epsilon i) = \lambda i1^2 + Var (\epsilon i) \] Wie in Kapitel @ref (taukongenerischesModell) dargestellt, entspricht \(\tau\) im Modell \(\tau\)-kongenerischer Modelle \(\tau\) = \(\lambda\)i0 + \(\lambda\) i1 * \(\eta\). Dementsprechend bleibt für die Reliabilitätsberechnung der manifesten Variable stehen: Var (\(\tau i\)) = \(\lambda\)i1^2. Dies wird in folgender Reliabilitätsgleichung der manifesten Variablen umgesetzt:

\[ Rel (yi) = \frac {\lambda i1 ^2}{\lambda i1^2 + Var (\epsilon i)} \] Die hier dargestellte Berechnung der Reliabilität der manifesten Variablen gilt nur für die Normierung durch E(\(\eta\)) = 0 und Var(\(\eta\)) = 1. Wird die andere Normierungsmöglichkeit \(\lambda\) 10 = 0 und \(\lambda\) 11 = 1 verwendet, wirkt sich dies auch auf die Berechnung der Reliabilität der manifesten Variablen aus.

Die Berechnung der Reliabilitäten unterscheidet sich dann zwischen der ersten (y1) und den restlichen manifesten Variablen (y2 - yi). Die Reliabilität von y1 wird folgendermaßen berechnet:

\[ Rel (y1) = \frac {1^2 * Var (\eta)} {Var (y1)} = \frac {1^2 * Var (\eta)} {1^2 * Var (\eta) + Var (\epsilon 1)} \] Dies ergibt sich daraus, dass die Ladung (\(\lambda 11\)) auf 1 fixiert wird. Auch in dieser Berechnung wird die Ladung quadriert, dies hat auf Grund der Fixierung allerdings keine Auswirkung. Da die Normierung keine Vorgaben bezüglich der Varianz der latenten Variable \(\eta\) macht, wird diese frei geschätzt und auch bei der Reliabilitätsberechnung mit dem entsprechenden Wert eingesetzt. Der Unterschied in der Berechnung der Reliabilitäten der restlichen manifesten Variablen liegt darin, dass für diese keine Fixierung der Ladungen vorgenommen wurde. Daher wird die Ladung und der frei geschätzte Wert für die Varianz von \(\eta\) mit in die Berechnung aufgenommen:

\[ Rel (y2) = \frac {\lambda 21 ^2 * Var (\eta)} {\lambda 21 ^2 * Var (\eta) + Var (\epsilon 2)} \\ Rel (yi) = \frac {\lambda i1 ^2 * Var (\eta)} {\lambda i1 ^2 * Var (\eta) + Var (\epsilon i)} \]

Auch in lavaanGUI kann die Reliabilität der manifesten Variablen berechnet werden. Dafür werden folgende Syntaxzeilen verwendet:

Dabei steht “relyi” für die Reliabilität des Items yi. Diese wird berechnet (:=) durch die Division der quadrierten Ladung multipliziert mit der Varianz von eta (veta) durch die quadrierte Ladung multipliziert mit der Varianz von eta (veta) plus die Fehlervarianz der jeweiligen Variable (vepsi).

Die Ergebnisse der zusätzlichen Berechnungen werden unterhalb der Parameter Estimates im lavaan Output dargestellt.

9.4.9 Berechnung der Reliabilität des Summenscores

Um die Reliabilität des Summenscores der verwendeten manifesten Variablen zu berechnen, wird im Falle, dass ein \(\tau\)-kongenerisches Modell auf die vorliegenden Daten passt, McDonald’s \(\omega\) verwendet:
\[ Rel (S) = \frac {Var (\tau S)}{Var (\tau S) + Var (\epsilon S)} = \frac {(\lambda 11 + \lambda 21 + \dots + \lambda i1)^2 * Var(\eta)} {((\lambda 11 + \lambda 21 + \dots + \lambda i1)^2 * Var(\eta)) + (Var(\epsilon1) + Var(\epsilon 2) + \dots + Var (\epsilon i))} \] Auch hier ist es wichtig, wie auch bei der Berechnung der Reliabilitäten der manifesten Variablen, darauf zu achten, die Ladungen jeweils zu quadrieren. Auch bei der Berechnung der Reliabilitäten des Summenscores muss jeweils wieder auf die Normierungsart geachtet werden. Dies wird vor allem in den Syntaxzeilen der lavaanGUI ersichtlich.

McDonald’s \(\omega\) kann in lavaanGUI folgendermaßen berechnet werden:

Unter der Variable “lambda2” werden jeweils die quadrierten Ladungen gespeichert. Hier muss bei der zweiten Normierungsmöglichkeit darauf geachtet werden, dass die Ladung der ersten manifesten Variable = 1 ist. Diese extra Variable “lambda2” wird bei der Berechnung von McDonald’s \(\omega\) (omega) an der Stelle der Varianz von \(\tau\) verwendet. Bei Verwendung der zweiten Normierungsmöglichkeit muss darauf geachtet werden, dass die quadrierten Ladungen jeweils noch mit der Varianz der latenten Variable \(\eta\) multipliziert werden. Dies entfällt auf Grund der Fixierung der Varianz von \(\eta\) auf 1 bei der ersten Normierungsmöglichkeit.

Das Ergebnis der Berechnungen für McDonald’s \(\omega\) ist in beiden Fällen identisch.

9.5 Weitere Modelle

Neben den genannten Modellen (\(\tau\)-parallel, essentiell \(\tau\)-äquivalent und \(\tau\)-kongenerisch), gibt es noch zwei weitere. Die zwei zusätzlichen Modelle heißen essentiell \(\tau\)-paralleles und \(\tau\)-äquivalentes Modell. Wie ihr schon aus den Namen entnehmen könnt, ergeben sich diese Modelle aus den zuvor behandelten Modellen. Im Folgenden werden euch die Annahmen und Berechnungsweisen der zwei zusätzlichen Modelle kurz vorgestellt.

9.5.1 Das essentiell \(\tau\)-parallele Modell

Das essentiell \(\tau\)-parallele Modell ist weniger restriktiv als das \(\tau\)-parallele Modell, aber restriktiver als das essentiell \(\tau\)-äquivalente Modell. Die Annahmen des essentiell \(\tau\)-parallelen Modells sind die Folgenden:

  • essentielle \(\tau\)-Äquivalenz: \(\tau_i\) = \(\lambda_{ij}\) + \(\tau_j\)
  • Unkorreliertheit der Messfehler: Cov (\(\epsilon_i\), \(\epsilon_j\)) = 0, i\(\neq\)j
  • Gleichheit der Fehlervarianzen: Var (\(\epsilon_i\)) = Var (\(\epsilon_j\))

Die Modellgleichungen für essentiell \(\tau\)-parallele Items lauten folgendermaßen: \[\begin{align} Y_1 = \lambda_1 &+ \eta + \epsilon_1\notag\\ Y_2 = \lambda_2 &+ \eta + \epsilon_2\notag\\ &\vdots\notag\\ Y_i = \lambda_i &+ \eta + \epsilon_i\notag \end{align}\]

Es gilt zusätzlich: Var(\(\epsilon_1\)) = Var(\(\epsilon_2\)) = Var(\(\epsilon_i\)) und Cov(\(\epsilon_i\), \(\epsilon_j\)) = 0, i \(\neq\) j.

Die Syntax für die Spezifikation eines essentiell \(\tau\)-parallelen Messmodells lautet exemplarisch für vier Item folgendermaßen:

9.5.2 Das \(\tau\)-äquivalente Modell

Das Modell der \(\tau\)-Äquivalenz ist ähnlich restriktiv wie das Modell der essentiellen \(\tau\)-Parallelität, sprich restriktiver als das essentiell \(\tau\)-äquivalente Modell aber weniger restriktiv als das \(\tau\)-parallele Modell. Es unterscheidet sich vom essentiell \(\tau\)-parallelen Modell in den Annahmen die es trifft. Die Annahmen des \(\tau\)-äquivalenten Modells sind die Folgenden:

  • \(\tau\)-Äquivalenz: \(\tau_i\) = \(\tau_j\)
  • Unkorreliertheit der Messfehler: Cov (\(\epsilon_i\), \(\epsilon_j\)) = 0, i\(\neq\)j

Die Modellgleichungen für \(\tau\)-äquivalente Modelle werden folgendermaßen aufgestellt: \[\begin{align} Y_1 = 1 &+ \eta + \epsilon_1\notag\\ Y_2 = 1 &+ \eta + \epsilon_2\notag\\ &\vdots\notag\\ Y_i = 1 &+ \eta + \epsilon_i\notag \end{align}\] Zusätzlich gilt Cov(\(\epsilon_i\), \(\epsilon_j\)) = 0, i \(\neq\) j.

Um ein \(\tau\)-äquivalentes Modell für einen exemplarischen Datensatz für vier manifeste Items zu testen, sieht die Syntax folgendermaßen aus: