44: Prüfung von Kausalhypothesen im Experiment

»Soll im Experiment eine Kausalhypothese geprüft werden, müssen die in ihr vorkommenden (theoretischen) Begriffe in beobachtbare Variablen »übersetzt« werden. Fehler bei dieser »Operationalisierung« beeinträchtigen die »Variablenvalidität« der Untersuchung (Teil 2). Ob mit Hilfe eines Experiments überhaupt Aussagen über Ursachen möglich sind, hängt von seiner »internen Validität« ab (Teil 3). Inwieweit ein Experiment eine Prüfung für die betrachtete Kausalhypothese ist, wird auch dadurch beeinflußt, mit welchen Personen und in welcher Situation es durchgeführt wird. Diese in ihrer Bedeutung für die wissenschaftliche Theorienbildung häufig unterschätzte »Populations- und Situationsvalidität« wird im Teil 4 besprochen. Die bisher erwähnten Aspekte der experimentellen Validität können sich in verschiedener Weise gegenseitig beeinflussen, und zwar je nach Art der geprüften Hypothese fördernd oder hemmend (Teil 5). Im Teil 6 zeigen wir, daß über die Gültigkeit einer wissenschaftlichen Hypothese entschieden werden kann, indem über die Gültigkeit von aus ihr abgeleiteten statistischen Hypothesen entschieden wird. Diese Entscheidung erfolgt mit Hilfe von Signifikanztests (Teil 7). Die wichtigsten Fehler, die dabei gemacht werden können und die dann die »statistische Validität« des Experiments herabsetzen, besprechen wir im Teil 8. Dabei werden sich wesentliche Hinweise für die Auswahl derjenigen Versuchspläne und Auswertungsmethoden ergeben, die für ein bestimmtes Experiment wahrscheinlich am besten geeignet sind. Auf zwei Aspekte der statistischen Validität gehen wir in den Teilen 9 und 10 besonders ein: auf Maße für die Größe des »experimentellen Effekts« und auf die begründete Wahl des Stichprobenumfangs. Eine auf diesen Überlegungen basierende Planungs- und Entscheidungsstrategie stellen wir im Teil 11 dar. «

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{hager:experimente_psy} 'Willi Hager and Rainer Westermann' (1983) : Planung und Auswertung von Experimenten

60: Nominalskala

Bei der sog. Nominalskala wird nur eine umkehrbar eindeutige Zuordnung der beobachteten Objekte in den Klassen gefordert. Deren Bezeichnung durch Zahlen ist willkürlich und beliebig transformierbar, soweit dabei keine Klassen zusammengelegt oder auseinandergezogen werden. Beispiele für eine ,,Nominalskalierung“ sind etwa Postleitzahlen, Telefonnummern oder die Kennzeichnung von Fußballspielern mit Nummern auf dem Rücken.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

61: Ordinal- oder Rangskala

»Bei der Ordinal- oder Rangskala wird die größer/kleiner-Relation der Zahlen mitbenutzt; zulässig sind alle Transformationen, bei denen die Rangordnung erhalten bleibt, also alle monotonen Transformationen. Dabei ist zwar sichergestellt, daß einer größeren Zahl auch eine stärkere Ausprägung der dadurch repräsentierten Eigenschaft des Objekts entspricht, aber keineswegs, ob etwa beispielsweise den gleichen Abständen 3 - 2 = 2 - 1 zwischen den Zahlen 1,2 und 3 auch gleiche Unterschiede in der Ausprägung der dadurch repräsentierten Eigenschaft der Objekte entsprechen.«

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

62: Skalenniveau

Ziel des Forschers ist es in der Regel, ein möglichst hohes Skalenniveau zu erreichen, um in seinen Aussagen über die durch die Zahlen abgebildeten Objekte möglichst viele Relationen der Zahlen benutzen zu können.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

63: Intervallskala;Verhältnisskala

Dies ist jedoch bei der Intervallskala sichergestellt, der nächst höheren in der Hierarchie der Skalen. Hier kann man Aussagen über Abstände zwischen den abgebildeten Objekten machen. Das Fullerton/Cattell-Prinzip beispielsweise, das Distanzen zwischen Reizen durch die relative Häufigkeit ihrer Beobachtung definiert, legt eine solche Intervallskala fest. Die aufgrund von Intervallskalen gemachten Aussagen über die Objekte sind invariant gegenüber linearen Transformationen der die Objekte repräsentierenden Zahlen.

Da der Nullpunkt einer solchen Intervall-Skala nicht festgelegt ist, können aufgrund dieser Zuordnungen immer noch keine Aussagen über Verhältnisse gemacht werden (wie z.B. ,, doppelt so stark ausgeprägt“ o.ä.). Dies ist erst bei der Verhältnisskala der Fall, bei der nur proportionale Transformationen zulässig sind.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

64: absolute Skala

Bei der absoluten Skala schließlich sind gar keine Transformationen mehr zulässig; dafür können dann auch alle Eigenschaften und Relationen der Zahlen zu Aussagen über die repräsentierten Objekte herangezogen werden.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

65: Erkenntnisgewinn in der klassischen Statistik

In der sog. klassischen Statistik [...] haben wir es mit folgender Vorgehensweise bei der Gewinnung oder Bestätigung neuer Erkenntnisse zu tun:

Der Forscher hat zunächst eine Hypothese, eine Aussage, die in bestimmter Weise seine Vorstellung von dem beobachteten Sachverhalt widerspiegelt oder abbildet. Es ist dabei formal zunächst unerheblich, woher diese Hypothese kommt; wichtig ist hier nur, daß sie eine Aussage über einen Sachverhalt macht, dessen Beobachtung unter den gegenwärtigen Bedingungen der Untersuchung prinzipiell möglich sein müßte.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

91: empirische Standardabweichung

\begin{equation}S_x=\sqrt{S\sp{2}\sb{x}}=\sqrt{\frac{1}{n-1}\sum\limits_{i=1}{n}(x_i-\overline{x})^2}\end{equation}

Für zweidimensionale Variablen getrennt berechnen.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{} '' () :

92: Spannweite

\begin{equation}x\sb{max}-x\sb{min}\end{equation}

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{} '' () :

93: Variationskoeffizent

Einheitenlos, Vergleichbarkeit unterschiedlicher Streuungen\\ \begin{equation}K=\sqrt{\frac{S\sp{2}\sb{x}}{\overline{x}^2}}= \sqrt{\frac{1}{n-1}\sum\limits_{i=1}{n}(\frac{x_i}{\overline{x}}-1)^2} \end{equation}

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{} '' () :

94: Z-Transformation

\begin{equation}z_i=\frac{x_i-\overline{x}}{S_x}\end{equation} \begin{equation}\overline{z}=\sum\limits_{i=1}{n}\frac{x_i-\overline{x}}{S_x}=0 \end{equation} \begin{equation}S_z=1\end{equation}

$ $\begin{align} F(x) &= \frac 1{\sigma \cdot \sqrt{2\pi}} \cdot \int_{-\infty}^x \mathrm e^{-\frac 12 \cdot \left( \frac{t-\mu}{\sigma}\right)^2} \mathrm dt\ &= \frac 1{\sigma \cdot \sqrt{2\pi}} \cdot \int_{\frac{-\infty-\mu}\sigma}^{\frac{x-\mu}\sigma} \mathrm e^{-\frac 12 u^2} \mathrm du \cdot \sigma\ &= \frac 1{\sqrt{2\pi}} \cdot \int_{-\infty}^{\frac{x-\mu}\sigma} \mathrm e^{-\frac 12 u^2} \mathrm du\ &= \Phi \left(\frac{x-\mu}{\sigma}\right) \end{align}$ $

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{} '' () :

95: empirische Kovarianz

Maßzahl für den Zusammenhang zweier statistischer Merkmale

\begin{equation} S\sb{xy}=\frac{1}{n-1} \sum\limits_{i=1}{n}[(x_i-\overline{x})(y_i-\overline{y})] \end{equation}

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{} '' () :

96: empirischer Korrelationskoeffizient

Maß für den Grad der linearen Abhängigkeit \begin{equation} r\sb{xy}=\frac{S\sb{xy}}{S_xS_y} \end{equation}

Korrelationsmatrix \begin{equation} \begin{matrix} & v_1 & v_2 & v_3 & v_4 \ v_1 & 1 & r\sb{v_1 v_2} & r\sb{v_1 v_3} & r\sb{v_1 v_4}\ v_2 & r\sb{v_2 v_1} & 1 & r\sb{v_2 v_3} &r\sb{v_2 v_4}\ v_3 & r\sb{v_3 v_1} & r\sb{v_3 v_2} & 1 & r\sb{v_3 v_4}\ v_4 & r\sb{v_4 v_2} & r\sb{v_4 v_3} & r\sb{v_2 v_4} & 1\ \end{matrix}\ \end{equation}

\begin{equation} r\sb{v_n v_m} = r\sb{v_m v_n} \end{equation}

\begin{equation} r\sb{v_n v_n} = 1 \end{equation}

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{} '' () :