76: Evaluating training effectiveness

Evaluating training effectiveness is a vital step to ensure that the training delivered is meaningful. Training is “meaningful” only when it meets the needs of both the student (employee) and the organization. If training content is incorrect, outdated, or inappropriate for the audience, the training will not meet student or organizational needs. If the delivery vehicle (e.g., classroom or computer-based training) is inappropriate, either in relation to the simplicity/complexity of the content or to the type of audience—or if there is an inadequate mix of vehicles in an agency’s overall training program—the training will not meet needs. Spending time and resources on training that does not achieve desired effects can reinforce, rather than dispel, the perception of security as an obstacle to productivity. Further, it can require the expenditure of far more resources in data or system recovery after a security incident occurs than would have been spent in prevention activities.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{nist800-16} 'Mark Wilson and Dorothea E. {de Zafra} and Sadie I. Pitcher and John D. Tressler and John B. Ippolito' (2003) : Information Technology Security Training Requirements: A Role- and Performance-Based Model

77: Purposes of Training Effectiveness Evaluation

Meaningfulness, or effectiveness, requires measurement. Evaluating training effectiveness has four distinct but interrelated purposes -- to measure: *[ [The extent to which conditions were right for learning and the learner’s subjective satisfaction;] [What a given student has learned from a specific course or training event, i.e., learning effectiveness;] [A pattern of student outcomes following a specific course or training event; i.e., teaching effectiveness; and] [The value of the specific class or training event, compared to other options in the context of an agency’s overall IT security training program; i.e., program effectiveness.] ]*

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{nist800-16} 'Mark Wilson and Dorothea E. {de Zafra} and Sadie I. Pitcher and John D. Tressler and John B. Ippolito' (2003) : Information Technology Security Training Requirements: A Role- and Performance-Based Model

78: evaluation process

An evaluation process should produce four types of measurement, each related to one of evaluation’s four purposes, as appropriate for three types of users of evaluation data: *[ [First, evaluation should yield information to assist the employees themselves in assessing their subsequent on-the-job performance.] [Second, evaluation should yield information to assist the employees’ supervisors in assessing individual students’ subsequent on-the-job performance.] [Third, it should produce trend data to assist trainers in improving both learning and teaching.] [Finally, it should produce return-on-investment statistics to enable responsible officials to allocate limited resources in a thoughtful, strategic manner among the spectrum of IT security awareness, security literacy, training, and education options for optimal results among the workforce as a whole.] ]*

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{nist800-16} 'Mark Wilson and Dorothea E. {de Zafra} and Sadie I. Pitcher and John D. Tressler and John B. Ippolito' (2003) : Information Technology Security Training Requirements: A Role- and Performance-Based Model

79: levels of evaluation

Four levels of evaluation, in order of complexity, are: *[ [Level 1: End-of-Course Evaluations (Student Satisfaction)] [ Level 2: Behavior Objective Testing (Learning Effectiveness, which is also a measure of Teaching Effectiveness)] [Level 3: Job Transfer Skills (Performance Effectiveness)] [ Level 4: Organizational Benefit (Training Program Effectiveness)] ]* Altogether, the four levels match the four purposes of training evaluation [...] in a staged manner.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{nist800-16} 'Mark Wilson and Dorothea E. {de Zafra} and Sadie I. Pitcher and John D. Tressler and John B. Ippolito' (2003) : Information Technology Security Training Requirements: A Role- and Performance-Based Model

107: Evaluation

Evaluation meint 1[ [das methodische Erfassen und] [das begründete Bewerten von Prozessen und Ergebnissen zum] [besseren Verstehen und Gestalten einer Praxis-Maßnahme im Bildungsbereich durch Wirkungskontrolle, Steuerung und Reflexion.] ]1

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

108: Evaluation und Erfassen

Der Fachbegriff &rlaquo;Evaluation&llaquo; enthält zunächst das Erfassen von Prozessen und Ergebnissen. &rlaquo;Erfassen&rlaquo; bedeutet dabei eine explizite Handlung die (a) methodisch organisiert und damit überprüfbar ist und deren Ergebnis (b) festgehalten -- dokumentiert -- wird (&rlaquo;schwarz auf weiß&rlaquo; ).

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

109: Evaluation und Bewerten

Wird ›Evaluation‹ als Fachbegriff verwendet, dann ist dieses ›Bewerten‹ etwas anderes als ›seine subjektive Meinung äußern‹: Man vergleicht die erhobenen Daten (›Ist-Wert‹) mit dem, was man sich gewünscht hat (›Soll-Wert‹). Dieser Soll-Wert sollte möglichst vorher, spätestens im Verlauf der Evaluations-Untersuchung durch Beschreibungen, Erläuterungen und Begründungen so nachvollziehbar gemacht werden, dass auch für einen Außenstehenden verständlich wird, warum welche Kriterien zu einem bestimmten Urteil führen. Der Maßstab muss also explizit begründet werden und kann damit überprüft, kritisiert und korrigiert werden.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

110: zentrales Evaluationsproblem

Ein zentrales Evaluationsproblem ist die Frage: Wer definiert Kriterien und Maßstäbe? Das ›Aufdecken von Anliegen und Konfliktthemen‹, [...] das Formulieren der Ziele und das Herausfinden der ›eigentlichen Ziele ‹ wird zunehmend als spezifische, oft schwierige und konfliktträchtige Aufgabe im Evaluationsprozess gesehen. Aber: ohne solch explizite, dokumentierte Bewertungskriterien und Bewertungsmaßstäbe (kurz: Soll-Werte) ist eine ›Evaluation‹ keine Evaluation!

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

111: Funktionen der Evaluation

Evaluation ist [...] kein Selbstzweck, sondern hat eine didaktische Funktion: Praxis soll eingeschätzt, verstanden und verbessert werden. Evaluation soll a) zeigen was abgelaufene Maßnahmen bewirkt haben: Das ist der ›Blick zurück‹ und die Kontrollfunktion. Und Evaluation soll b) helfen, kommende Maßnahmen besser zu gestalten: Das ist der ›Blick nach vorn‹ und die didaktische Steuerungsfunktion von Evaluation. Außerdem hilft Evaluation, c) Bildungsmaßnahmen zu reflektieren (Reflektionsfunktion) und zu verstehen.

Aber: alles gleichzeitig ist meist nicht möglich. Deshalb ist es wichtig, sich bei Evaluationsmaßnahmen von vornherein klar zu machen, was man erreichen will […].

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

112: Evaluation im politischen Kontext

Mit der Praxis- und Nutzenbezogenheit greift Evaluation einerseits in vorhandene Systeme ein, wird andererseit von den vorhandenen Akteuren und Strukturen beeinflusst. Evaluation spielt sich deshalb immer in einem ›politischen‹ Kontext ab.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

113: Evaluation is NOT political under the following conditions

Evaluation is NOT political under the following conditions: *[ [No one cares about the program.] [No one knows about the program.] [No money is at stake.] [No power or authority is at stake.] [And, no one in the program, making decisions about the program, or otherwise involved in, knowledgeable about, or attached to the progam, is sexually active.] ]*

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{uf-eval} 'Michael Quinn Patton' (1997) : Utilization-Focused Evaluation

114: Abgrenzungen von Evaluation

Der Begriff hat nur dann Trennschärfe, wenn auch klar ist, was er nicht einschließt. Eine Reihe von Auschlusskriterien wurden bereits genannt: *[ [Evaluation setzt die methodische Sammlung und zugängliche Dokumentation von Daten voraus.] [Evaluation macht wertende Aussagen auf der Grundlage begründeter Soll-Wert- oder Ziebleschreibungen.] [Evaluation zielt auf das Verstehen, Bewerten und Verbessern konkreter Praxismaßnahmen.] ]* Fehlt eines dieser Elemente, dann sollte nach dem hier vorgeschlagenen Verständnis nicht von Evaluation gesprochen werden.

Evaluation lässt sich damit auch abgrenzen gegen Forschung: Forschung sucht nach allgemeinen Erkenntnissen […], Evaluation untersucht und bewertet einen speziellen und realen Fall […].

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

115: Zweck der Evaluation

Die Überprüfung, ob Maßnahmen in der Weiterbildung, den ihnen zugedachten Erfolg haben, ist sowohl für den Lerner, den Kursleiter und Organisator als auch für die Weiterbildungs-Institutionen und die Öffentlichkeit von Interesse:

[ [Den Lernern wird der Erfolg rückgemeldet bzw. es werden Hinweise zur Weiterarbeit gegeben.] [Der Kursleiter bzw. der Organisator/Veranstalter kann didaktische Entscheidungen begründet fällen.] [Der Institution und Öffentlichkeit gegenüber kann gerechtfertigt werden, wozu bestimmte Investitionen gemacht werden.] [Außerdem werden für Wissenschaft und Forschung Datengrundlage und Instrumente geschaffen.] ]

Verzichtet man auf Erfolgskontrollen, dann ergeben sich sowohl praktische als auch theoretische Gefahren: [ [Für die Praxis fehlt ein Maßstab, an dem und mit dem Bildungsangebote verbessert und weiterentwickelt werden; außerdem wird, wer nicht nachweist, was seine Tätigkeit bringt, in weniger bildungsfreundlichen Zeiten Schwierigkeiten haben, sein Angebot zu rechtfertigen.] [Theorien bleiben ohne empirische Kontrolle kaum mehr als wohlklingende und wohlmeinende Überzeugungen; Erwachsenenpädagogik bzw. Andragogik als Wissenschaft von der Bildung Erwachsener tut sich damit schwer, den Geruch der intuitiven Kunst loszuwerden.] ]

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

116: Schritte zur Präzisierung

Bevor die eigentliche Untersuchung beginnt, legt man fest,

1[ [was man untersuchen will (Zielbeschreibung)] [was man als erwünschte oder befürchtete Wirkung feststellen will und] [welches die Kriterien und Indikatoren sind, die man erfassen kann und an denen man den Erfolg messen will […].] ]1

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

117: Berechnung alternativer Weiterbildungskosten

Will man eine Bildungsinvestition begründen, sollte man prüfen, ob es möglich ist, den Schaden zu beziffern, der bei Nicht-Stattfinden der Bildungsmaßnahme entsteht bzw. welche Schadenskosten bereits getragen werden oder in Zukunft getragen sein werden. [...] Manchmal erhält man bei der Frage nach zu heilendem Schade keinen Geldbetrag genannt, sondern nicht-monetäre Gründe [...].

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

118: Intentionen zu konkretem Handeln

Indem man sich zwingt, in der Projektplanung und während der Projektdurchführung nicht nur geplante Tätigkeiten zu beschreiben [...] sondern beabsichtigte Wirkungen, Ergebnisse, »Outcomes« zu formulieren, kommt man leichter von allgemeinen Intentionen zu konkretem Handeln. Und man sieht besser und früher, dass Schritte in die richtige Richtung gemacht werden.

[…]

Dieses selbstkritisch-prüfenden Herangehen ist nicht nur für die Evaluation wichtig: Nach unserer Beobachtung führt dies zu einer veränderten professionellen Haltung, in der die andragonische Arbeit nicht mehr allein auf mehroder weniger glaubhafte Bekenntnisse und Überzeugungen angewiesen ist, sondern didaktische Wirkzusammenhänge zunehmend erklärt, begründet und gestaltet werden.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

119: Evaluation ist nichts ohne Dokumentation

Evaluation ist nichts ohne Dokumentation. Für die kontinuierliche Arbeit empfiehlt sich ein Projekttagebuch [...]. Am Schluss bzw. nach Teilschritten muss ein Evaluationsbericht abgefasst werden. Meist enthält er folgende Teile:

1[ [Abstract mit Kurzüberblick] [Absicht der Untersuchung] [Projektbeschreibung (Historie) und bebsichtigete Ergebnisse] [Die Untersuchungsmethode] [Datengegründete Darstellung der Ergebnisse, kritische Reflexion] [Vergleich der Absichten und des Erreichten - Bewertung] [Schlussfolgerungen, Empfehlungen: Was haben wir gelernt? Wie geht es weiter?] [Materialanhang] ]1

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

120: Was wird gelernt?

Gelernt wird nicht nur, was bewusst als Lerninhalt verkündigt wird, sondern auch und gerade das, was als Nebeninhalt durch die Form unseres Lernangebotes mittransportiert wird.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

121: Evaluation als andragogisches Handeln

Wenn Erwachsenenbildungsarbeit die Entwicklung zum selbständigen und mündigen Bürger, zum verantwortlichen Mitarbeitern, zur vielseitigen Persönlichkeit fördern will, dann darf Evaluation nicht entmündigen, Verantwortung wegnehmen, fremde Maßstäbe unerklärt anlegen, einseitig und ohne individuelle Rücksicht beurteilen; den Beteiligten muss die Möglichkeit eingeräumt sein, eigenverantwortlich beim Beurteilungsprozess mitzuwirken und auch diesen Teil des Lernens für eigene Entwicklung zu nutzen.

Wenn Erwachsenenbildung nützen und nicht Schaden zufügen soll, dann darf Evaluation nicht unnötig Bildungszeit verschenken, darf nicht verletzen, herabwürdigen und die Bereitschaft zum Weiterlerenen, zur lebenslangen und lebensbreiten Bildung verringern oder gar beenden. Evaluation hat in andragogisch-ethischer Verantwortung das eigene Vorgehen zu reflektieren.

Dieses Vergewissern, welche Vorstellungen uns beim Evaluieren leiten, ist ein Stück professionell-andragogisches Handeln, in dem Aktion und Reflexion zusammenfließen. Theorie ist dabei nicht darüberschwebend-unverbindliches Wortgeplänkel, Praxis ist nicht blindes Drauflosagieren, Theorie erleuchtet Praxis, so dass wir unser Handeln in seinem Kontextverstehen und begründet gestalten können.

Verstehen wir Evaluation als didaktisches Handeln, bei dem es um ein besseres Verstehen und Gestalten von Bildungsangeboten für Erwachsene geht, dann muss sich dieses didaktische Handeln an unseren Vorstellungen vom Erwachsenen und seinem Lernen orientieren. Sich diese explizit bewusst zu machen heißt, die Besonderheiten von andragogischer Evaluation zu kennen.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

122: Funktionen andragogischer Evaluation

Die zentrale Funktion von Evaluation in der Erwachsenenbildung ist nicht, Lerner in eine Rangfolge gemäß ihres Wissens/Könnens zu bringen, sondern Bildungsangebote auf ihre Qualität zu prüfen.

Evaluation ist ein Teil des Lernprozesses und dient dem Lernerfolg. Neben der Information über Erreichtes und Nichterreichtes an den Lernenden (summative Evaluation) kommt der formativen Evaluation besondere Bedeutung zu: im Lernprozess Lernhilfe zu sein.

In der Erwachsenenbildung kommt der Selbstevaluation gegenüber der Fremdevaluation of eine größere Rolle zu. In vielen Fällen […] können die Beteiligten selbst erkennen und beurteilen, was erreicht wurde und was erreicht werden sollte.

Insbesondere zur Stärkung der selbständigen und selbstverantwortlichen Eigensteuerung des Lernens ist die Selbstkontrolle von besonderer Bedeutung. Dies schließt Fremdkontrolle als Rückmeldung (zur Motivation/Belohnung und/oder Entscheidung über Korrektur) nicht aus.

Evaluation in der Erwachsenenbildung stellt sich oft als gemeinsames Bemühen aller Beteiligten dar, die sich auch im Evaluationsprozess die Verantwortung teilen.

Deshalb wird man die Maßnahmen und die Ergebnisse von Evaluation bei Erwachsenen in der Regel mit allen Beteiligten absprechen bzw. besprechen.

Dabei geht es nicht um Abrechnung, sondern um die Fragen: Wer trägt welche Verantwortung? Was hat jeder für sich daraus gelernt? Was folgt daraus fürs Weiterlernen?

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

123: Intrinsische Evaluation/Output-Evaluation

Evaluation kann eine Bildungsmaßnahme entweder von innen heraus an ihren deklarierten Absichten dokumentieren und bewerten - das wäre »intrinsische Evaluation«, - oder man kann erfasen, welche Früchte diese Maßnahme trägt - das wäre Output-Evaluation ([...] oder »Ergebnisevaluation«).

[…]

Das Gemeinsame dieser intrinsischen Evaluationsformen liegt darin, dass Maßnahmen, Prozesse, Konzepte aus ihren eigenen Ansprüchen heraus überprüft werden, und nicht an ihren Auswirkungen.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

124: Zielevaluation

Bei der Zielevaluation werden die Ziele einer Bildungsmaßnahme, die zu diesem Zwecke explizit formuliert sein müssen, überprüft. Dazu werden sie auf logische Stimmigkeit, Vollständigkeit, Genauigkeit und Überprüfbarkeit untersucht. Dies erfolgt, bevor die Früchte der Zielangabe etwa in einem Projektverlauf sichtbar werden, also gewissermaßen von innen heraus, indem man argumentativ die Zielformulierungen selbst bewertet.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

125: Prozessevaluation

Wenn vom Verlauf, vom Prozess einer Bildungsmaßnahme bestimmte Qualitäten erwartet werden, - z.B. die Teilnehmer sollen aktiv sein, es soll ein partnerschaftliches Klima herrschen, das Lernen soll visuell unterstützt sein -, dann kann man die Planung/den Prozess beobachten und prüfen, ob er tatsächlich so abläuft wie gewünscht. Auch hier prüft man kein Ergebnis, sondern misst die Sache innerlich an ihren eigenen Ansprüchen.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

126: Produktevaluation

Produktevaluation (nicht zu verwechseln mit Output-/Ergebnisevaluation!) bedeutet, dass man ein didaktisches Produkt, zum Beispiel die Planung einer Konferenz, die Möblierung eines Bildungszentrums oder den Entwurf eines Studienbriefes aus den eigenen Ansprüchen heraus evaluiert, noch bevor bei einem ersten Nutzer die Ergebnisse sichtbar werden.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

127: Output-Evaluation

Output-Evaluation \[dokumentiert und bewertet\] was bei einer Maßnahme als Ergebnis herauskommt: Werden nach einem Sprachkurs bestimmte sprachliche Situationen beherrscht? Wie gut lösen die Teilnehmer die Theoriefragen beim Sportboot-Führerschein [...]. Output-Evaluation ist also erst möglich nach Abschluss einer Bildungsmaßnahme bzw. einem Zwischenabschnitt. Erst dann kann man festhalten, welche Früchte sie getragen hat.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

128: Quantitative oder qualitative Evaluation?

Evaluation kann quantitative Größen erfassen. Dies geschieht meist in Form von Zahlen [...]. Auch Aussagen über Qualitäten lassen sich in quantifizierter Form erheben, beispielsweise in der Form von Ratings (Schätzskalen) [...].

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

129: qualitative Evaluation

Bei der qualitativen Evaluation werden Aussagen in Form von Worten gesammelt, die nicht vorher festgelegt sind. Qualitatives Vorgehen lässt Offenheit für nicht vorhergesehene Beobachtungen.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

130: Vorteile/Nachteile quantitativer/qualitativer Evaluation

Vorteil quantitativer Evaluation ist, dass man große Personenzahlen schnell befragen, auswerten und zusammenfassen kann. Nachteil ist, dass vieles damit an Farbigkeit der Information verloren geht und dass man nur Antworten auf das bekommt, was man fragt - und nicht, was den Befragten am Herzen oder auf der Zunge gelegen hätte, an das der Evaluator in seinem Fragebogen aber nicht gedacht hat. Solche Inhalte, die vom Evaluator nicht berücksichtigt wurden, gewinnt man eher mit qualitativen Verfahren, man erhält offen-überraschende Antworten, Nunancen und Farben - mit der Schwierigkeit, diese dann zusammenfassend auszuwerten.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

131: Fünf Ansatzpunkte für Evaluation

Im Original als Graphik:

Bei Kursauswahl: Angebots-Evaluation: Wird das Angebot unser Problem lösen?

Kursverlauf: Evaluation Meinung: Wie beurteilen die Nutzer das Angebot?

Kursverlauf: Evaluation Was wissen/können die Nutzer danach?

In der Praxis: Evaluation Anwendung Was tun die Nutzer in der Praxis?

In der Praxid: Evaluation Wirkung: Wurde die Praxis wunschgemäß verändert?

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

132: Ansatzpunkte für Evaluation: Stufe 1 Meinung

Bei dieser Strategie wird am Ende einese Kurses gefragt, was die Teilnehmer über den Kurs meinen. Es erfolgt also eine Einschätzung, oft in Form einer Schätzskala [...]. Diese Methode hat den Vorteil, dass sie ökonomisch durchführbar ist und die Ergebnisse schnell zur Verfügung stehen. Außerdem können die Fragen solcher Schätzskalen weitgehend unabhängig vom Kursinhalt formuliert werden, das gleiche Befragungsinstrument ist deshalb auch bei unterschiedlichen Kursinhalten einsetzbar. Diese Methode ist deshalb die am öftesten anzutreffende Auswertungsform.

Nachteil einer solchen Schätzskala ist, dass die Teilnehmer ihren subjektiven Eindruck […] vom Kurs wiedergeben, der durch vielerlei Faktoren beeinflusst wird und keineswegs unbedingt zutrifft.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

133: Ansatzpunkte für Evaluation: Stufe 2 Wissen, Können

Will man wissen, welches Wissen und Können in einem Kurs erworben wurde [...], so muss man jeden Teilnehmer dieses Wissen oder Können vorführen lassen. Dies kann am Ende des Kurses geschehen in Form einer Prüfung, mit Papier-Bleistift-Aufgaben, (standardisierten) Tests, Simulationen, Arbeitsaufgaben einer Probearbeit oder ähnlichem.

[…]

Vorteil dieser Stufe 2 ist, dass die Stoffbeherrschung direkt gezeigt wird und man nicht auf die mehr oder weniger verlässliche Selbsteinschätzung oder Meinung der Teilnehmer angewiesen ist. Ein weiterer, vor allem didaktischer Vorteil ist, dass die Teilnehmer erfahren, was sie können. Meistens ist dies eine ermutigende und stolz machende Erfahrung.

[…]

Von Nachteil ist, dass die Konstruktion solcher Lernergebnis-Prüfungen oft aufwändig ist, dass sie nur für einen einzelnen Kurs bzw. Stoffbereich gelten und komplexere Lehrziele wie »Selbständigkeit« oder »Verantwortung« so kaum erfasst werden können. Außerdem ist mit der Lernergebnisprüfung nicht ausgesagt, ob das Gelernte nachher auf die Praxis transferiert wird und diese positiv verändert wird.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

134: Ansatzpunkte für Evaluation: Stufe 3 Anwendung

Mit der Evaluation auf der Stufe »Anwendung« wird also unterschiedliches geprüft. Man prüft:

Weiterbildungs-Erfolg: Wurde nichts oder nicht ausreichend gelernt?

Mehr oder weniger Erfolg hängt auf der Stufe »Anwendung« auch davon ab, dass genügend gelernt wurde. Hier wird man also nachfragen, ob die Bildungsmaßnahme gut genug war, um den Erfolg zu sichern. Ist dies nicht der Fall, dann muss sie entweder verbessert werden oder verlängert/wiederholt werden. »Besser und/oder mehr davon« wäre die Strategie.

Transfer-Erfolg: Wurde genug transferierbar gelernt?

Fehlender Anwendungserfolg kann möglicherweise darauf zurückgeführt werden, dass zwar die richtigen Inhalte gelehrt wurden, dass die Teilnehmer die Inhalte auch gelernt haben, dass aber im Kurs nicht genügend auf die Praxisübertragung geachtet wurde.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

135: Ansatzpunkte für Evaluation: Stufe 3 Anwendung: Inhaltskontrolle

Inhaltskontrolle: Wurden die richtigen Inhalte gelernt?

Erfolg bzw. Nichterfolg bei der Anwendung richtet den prüfenden Blick auch auf die Inhalte der Bildungsmaßnahme. Sind es die falschen, dann nutzt »besser oder mehr davon« nichts; als Strategie müssen Inhalte revidiert werden bzw. die Schwerpunkte anders gesetzt werden.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

136: Ansatzpunkte für Evaluation: Stufe 3 Anwendung: Inhaltskontrolle

Inhaltskontrolle: Wurden die richtigen Inhalte gelernt?

Erfolg bzw. Nichterfolg bei der Anwendung richtet den prüfenden Blick auch auf die Inhalte der Bildungsmaßnahme. Sind es die falschen, dann nutzt »besser oder mehr davon« nichts; als Strategie müssen Inhalte revidiert werden bzw. die Schwerpunkte anders gesetzt werden.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

137: Ansatzpunkte für Evaluation: Stufe 3 Anwendung: Anwendungskontrolle

Anwendungskontrolle: Bestand die Möglichkeit der Anwendung? [...] Anwendung ist ein Kriterium, das vom Teilnehmer subjektiv selbst definiert werden kann!

Spielt die Sicherung des Erfolgs auf der Ebene »Anwendung« eine wichtige Rolle, dann ist es didaktisch of sinnvoll, etwas ein Vierteljahr nach dem Kurs ein erneutes Treffen durchzuführen und dabei sowohl Transferprobleme als auch Anwendungswiderstände zu besprechen.

Ob mit dem Anwenden des Gelernten auch die beabsichtigten Wirkungen erzielt werden, ist auf dieser Stufe nicht gesichert. Dies wird in Stufe 4 [Wirkung] geprüft.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

156: Ansatzpunkte für Evaluation: Stufe 3 Anwendung

Am Ende eines Kurses etwas zu wissen oder zu können ist eine Sache; eine andere Sache ist es, ob dieses Wissen oder Können später auch in die Praxis umgesetzt wird. In dieser dritten Stufe wird festgestellt, ob in Folge der Bildungsmaßnahme eine Anwendung des Gelernten in der Praxis festzustellen ist [...]. Dazu werden einige Zeit nach dem Kurs [...] die Teilnehmer im Anwendungsbereich aufgesucht und es wird festgestellt, ob das neu erworbene Wissen/Können angewendet wird. [...] Vorteil ist, dass jetzt geprüft wird, ob das Lernen tatsächlich zu einer verbesserten Handlungsfähigkeit geführt hat, und nicht zu einem folgenlosen Papierwissen; Nachteil ist die manchmal aufwändigere Erhebungsmethode [...]. Allerdings ist zu berücksichtigen, dass eine eventuelle Nicht-Anwendung des Gelernten weder bedeutet, dass die vorangegangene Bildungsmaßnahme erfolglos war, noch das der Teilnehmer nichts gelernt hat: Vielleicht hat sich einfach noch keine Gelgenheit zur Anwendung ergeben. [...] Das Problem liegt hier nicht im Verantwortungsbereich des Bildungswesens, sondern des Managements: Lernen macht nur dann Sinn, wenn hinterher auch die Möglichkeit der [...] Erprobung geboten wird [...]. Diese Möglichkeit der Erprobung liegt möglicherweise gar nicht in der Hand des Weitergebildeten oder des Trainers, sondern bei Vorgesetzten oder anderen, welche die Anwendung ermöglichen und dazu ermutigen müssen. Die Evaluation auf dieser Stufe überprüft damit nicht nur Bildungsergebnisse, sondern auch das Umfeld und kann damit feststellen, ob die Bildungsmaßnahme von Anfang an überhaupt sinnvoll war (wozu etwas lernen lassen, das hinterher gar nicht gebraucht wird?) und ob nachträglich das Umfeld so gestaltet wurde, dass das Gelernte auch angewendet werden konnte. Hier kann Evaluation dann wieder formativ wirken: bewusst zu machen, dass Anwendung möglicherweise nicht von sich alleine erfolgt, sondern auf Vorbedingungen angewiesen ist, die erst zu schaffen sind.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

216: Evaluation

Evaluation meint die Bewertung eines gegebenen Sachverhalts anhand bestimmter Ziele.

Awareness; Sicherheit; Verhalten; Lernen; Training; Evaluation; Effektivität ; ;

{schnotz:pp} 'Wolfgang Schnotz' (2006) : Pädagogische Psychologie

131: Fünf Ansatzpunkte für Evaluation

Im Original als Graphik:

Bei Kursauswahl: Angebots-Evaluation: Wird das Angebot unser Problem lösen?

Kursverlauf: Evaluation Meinung: Wie beurteilen die Nutzer das Angebot?

Kursverlauf: Evaluation Was wissen/können die Nutzer danach?

In der Praxis: Evaluation Anwendung Was tun die Nutzer in der Praxis?

In der Praxid: Evaluation Wirkung: Wurde die Praxis wunschgemäß verändert?

Weiterbildung; Evaluation; Lernerfolgserfassung; Leistungsbeurteilung; Evaluation!Ansatzpunkte; ;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

135: Ansatzpunkte für Evaluation: Stufe 3 Anwendung: Inhaltskontrolle

Inhaltskontrolle: Wurden die richtigen Inhalte gelernt?

Erfolg bzw. Nichterfolg bei der Anwendung richtet den prüfenden Blick auch auf die Inhalte der Bildungsmaßnahme. Sind es die falschen, dann nutzt »besser oder mehr davon« nichts; als Strategie müssen Inhalte revidiert werden bzw. die Schwerpunkte anders gesetzt werden.

Weiterbildung; Evaluation; Lernerfolgserfassung; Leistungsbeurteilung; Evaluation!Inhaltskontrolle;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

136: Ansatzpunkte für Evaluation: Stufe 3 Anwendung: Inhaltskontrolle

Inhaltskontrolle: Wurden die richtigen Inhalte gelernt?

Erfolg bzw. Nichterfolg bei der Anwendung richtet den prüfenden Blick auch auf die Inhalte der Bildungsmaßnahme. Sind es die falschen, dann nutzt »besser oder mehr davon« nichts; als Strategie müssen Inhalte revidiert werden bzw. die Schwerpunkte anders gesetzt werden.

Weiterbildung; Evaluation; Lernerfolgserfassung; Leistungsbeurteilung; Evaluation!Inhaltskontrolle;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

128: Quantitative oder qualitative Evaluation?

Evaluation kann quantitative Größen erfassen. Dies geschieht meist in Form von Zahlen [...]. Auch Aussagen über Qualitäten lassen sich in quantifizierter Form erheben, beispielsweise in der Form von Ratings (Schätzskalen) [...].

Weiterbildung; Evaluation; Lernerfolgserfassung; Leistungsbeurteilung; Evaluation!qualitative; Evaluation!quantitative;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

129: qualitative Evaluation

Bei der qualitativen Evaluation werden Aussagen in Form von Worten gesammelt, die nicht vorher festgelegt sind. Qualitatives Vorgehen lässt Offenheit für nicht vorhergesehene Beobachtungen.

Weiterbildung; Evaluation; Lernerfolgserfassung; Leistungsbeurteilung; Evaluation!qualitative; Evaluation!quantitative;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

128: Quantitative oder qualitative Evaluation?

Evaluation kann quantitative Größen erfassen. Dies geschieht meist in Form von Zahlen [...]. Auch Aussagen über Qualitäten lassen sich in quantifizierter Form erheben, beispielsweise in der Form von Ratings (Schätzskalen) [...].

Weiterbildung; Evaluation; Lernerfolgserfassung; Leistungsbeurteilung; Evaluation!qualitative; Evaluation!quantitative;

{weiterbildungsevaluation} 'Jost Reischmann' (2002) : Weiterbildungs-Evaluation: Lernerfolge messbar machen

203: Tun und Erkennen

Jedes Tun ist Erkennen, und jedes Erkennen ist Tun.

Erkenntnis; Erkenntnistheorie; Kybernetik; Konstruktivismus; systemtheorie; evolution;

{Maturana:Baum} 'Humberto Maturana and Francisco Varela' (2009) : Der Baum der Erkenntnis

204: Beobachter

Alles Gesagte ist von jemandem gesagt.

Erkenntnis; Erkenntnistheorie; Kybernetik; Konstruktivismus; systemtheorie; evolution;

{Maturana:Baum} 'Humberto Maturana and Francisco Varela' (2009) : Der Baum der Erkenntnis

205: Erkennen

Erkennen ist effektive Handlung, das heißt, operationale Effektivität im Existenzbereich des Lebewesens.

Erkenntnis; Erkenntnistheorie; Kybernetik; Konstruktivismus; systemtheorie; evolution;

{Maturana:Baum} 'Humberto Maturana and Francisco Varela' (2009) : Der Baum der Erkenntnis

206: Unterscheidung

Das Aufzeigen eines Wesens, Objektes, einer Sache oder Einheit ist mit einem Akt der Unterscheidung verbunden, der das Aufgezeigte von einem Hintergrund unterscheidet und damit von diesem trennt. Immer wenn wir auf etwas implizit oder explizit Bezug nehmen, haben wir ein Unterscheidungskriterium festgelegt, das das Kennzeichen dessen, von dem wir gerade sprechen, und seine Eigenschaften als Wesen, Einheit, oder Objekt spezifiziert. Es ist eine ganz alltägliche Situtation und nicht etwa eine besondere Situation, in der wir uns andauernd und notwendigerweise finden.

Erkenntnis; Erkenntnistheorie; Kybernetik; Konstruktivismus; systemtheorie; evolution;

{Maturana:Baum} 'Humberto Maturana and Francisco Varela' (2009) : Der Baum der Erkenntnis

207: Einheiten

Eine Einheit (Entität, Wesen, Objekt) ist durch einen Akt der Unterscheidung definiert. Anders herum: Immer dann, wenn wir in unseren Beschreibungen auf eine Einheit Bezug nehmen, implizieren wir eine Operation der Unterscheidung, die die Einheit definiert und möglich macht.

Erkenntnis; Erkenntnistheorie; Kybernetik; Konstruktivismus; systemtheorie; evolution;

{Maturana:Baum} 'Humberto Maturana and Francisco Varela' (2009) : Der Baum der Erkenntnis

208: Organisation;Struktur

Unter Organisation sind die Relationen zu verstehen, die zwischen den Bestandteilen von etwas gegeben sein müssen, damit es als Mitglied einer bestimmten Klasse erkannt wird. Unter der Struktur von etwas werden die Bestandteile der und die Relationen verstanden, die in konkreter Weise eine bestimmte Einheit konstitutieren und ihre Organisation verwirklichen.

Erkenntnis; Erkenntnistheorie; Kybernetik; Konstruktivismus; systemtheorie; evolution;

{Maturana:Baum} 'Humberto Maturana and Francisco Varela' (2009) : Der Baum der Erkenntnis

209: historisches Phänomen

Immer wenn in einem System ein Zustand als Modifikation eines früheren Zustandes auftaucht, haben wir es mit einem historischen Phänomen zu tun.

Erkenntnis; Erkenntnistheorie; Kybernetik; Konstruktivismus; systemtheorie; evolution;

{Maturana:Baum} 'Humberto Maturana and Francisco Varela' (2009) : Der Baum der Erkenntnis

210: struktureller Wandel, Ontogenese

Die Geschichte des strukturellen Wandels eines einzelnen Lebewesens ist seine Ontogenese, In dieser Geschichte beginnt jedes Lebewesen mit einer Anfangsstruktur, welche den Verlauf seiner Interaktionen bedingt und zugleich die Möglichkeit der strukturellen Veränderungen einschränkt, die durch diese Interaktionen in ihm ausgelöst werden.

Erkenntnis; Erkenntnistheorie; Kybernetik; Konstruktivismus; systemtheorie; evolution;

{Maturana:Baum} 'Humberto Maturana and Francisco Varela' (2009) : Der Baum der Erkenntnis

44: Prüfung von Kausalhypothesen im Experiment

»Soll im Experiment eine Kausalhypothese geprüft werden, müssen die in ihr vorkommenden (theoretischen) Begriffe in beobachtbare Variablen »übersetzt« werden. Fehler bei dieser »Operationalisierung« beeinträchtigen die »Variablenvalidität« der Untersuchung (Teil 2). Ob mit Hilfe eines Experiments überhaupt Aussagen über Ursachen möglich sind, hängt von seiner »internen Validität« ab (Teil 3). Inwieweit ein Experiment eine Prüfung für die betrachtete Kausalhypothese ist, wird auch dadurch beeinflußt, mit welchen Personen und in welcher Situation es durchgeführt wird. Diese in ihrer Bedeutung für die wissenschaftliche Theorienbildung häufig unterschätzte »Populations- und Situationsvalidität« wird im Teil 4 besprochen. Die bisher erwähnten Aspekte der experimentellen Validität können sich in verschiedener Weise gegenseitig beeinflussen, und zwar je nach Art der geprüften Hypothese fördernd oder hemmend (Teil 5). Im Teil 6 zeigen wir, daß über die Gültigkeit einer wissenschaftlichen Hypothese entschieden werden kann, indem über die Gültigkeit von aus ihr abgeleiteten statistischen Hypothesen entschieden wird. Diese Entscheidung erfolgt mit Hilfe von Signifikanztests (Teil 7). Die wichtigsten Fehler, die dabei gemacht werden können und die dann die »statistische Validität« des Experiments herabsetzen, besprechen wir im Teil 8. Dabei werden sich wesentliche Hinweise für die Auswahl derjenigen Versuchspläne und Auswertungsmethoden ergeben, die für ein bestimmtes Experiment wahrscheinlich am besten geeignet sind. Auf zwei Aspekte der statistischen Validität gehen wir in den Teilen 9 und 10 besonders ein: auf Maße für die Größe des »experimentellen Effekts« und auf die begründete Wahl des Stichprobenumfangs. Eine auf diesen Überlegungen basierende Planungs- und Entscheidungsstrategie stellen wir im Teil 11 dar. «

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{hager:experimente_psy} 'Willi Hager and Rainer Westermann' (1983) : Planung und Auswertung von Experimenten

60: Nominalskala

Bei der sog. Nominalskala wird nur eine umkehrbar eindeutige Zuordnung der beobachteten Objekte in den Klassen gefordert. Deren Bezeichnung durch Zahlen ist willkürlich und beliebig transformierbar, soweit dabei keine Klassen zusammengelegt oder auseinandergezogen werden. Beispiele für eine ,,Nominalskalierung“ sind etwa Postleitzahlen, Telefonnummern oder die Kennzeichnung von Fußballspielern mit Nummern auf dem Rücken.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

61: Ordinal- oder Rangskala

»Bei der Ordinal- oder Rangskala wird die größer/kleiner-Relation der Zahlen mitbenutzt; zulässig sind alle Transformationen, bei denen die Rangordnung erhalten bleibt, also alle monotonen Transformationen. Dabei ist zwar sichergestellt, daß einer größeren Zahl auch eine stärkere Ausprägung der dadurch repräsentierten Eigenschaft des Objekts entspricht, aber keineswegs, ob etwa beispielsweise den gleichen Abständen 3 - 2 = 2 - 1 zwischen den Zahlen 1,2 und 3 auch gleiche Unterschiede in der Ausprägung der dadurch repräsentierten Eigenschaft der Objekte entsprechen.«

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

62: Skalenniveau

Ziel des Forschers ist es in der Regel, ein möglichst hohes Skalenniveau zu erreichen, um in seinen Aussagen über die durch die Zahlen abgebildeten Objekte möglichst viele Relationen der Zahlen benutzen zu können.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

63: Intervallskala;Verhältnisskala

Dies ist jedoch bei der Intervallskala sichergestellt, der nächst höheren in der Hierarchie der Skalen. Hier kann man Aussagen über Abstände zwischen den abgebildeten Objekten machen. Das Fullerton/Cattell-Prinzip beispielsweise, das Distanzen zwischen Reizen durch die relative Häufigkeit ihrer Beobachtung definiert, legt eine solche Intervallskala fest. Die aufgrund von Intervallskalen gemachten Aussagen über die Objekte sind invariant gegenüber linearen Transformationen der die Objekte repräsentierenden Zahlen.

Da der Nullpunkt einer solchen Intervall-Skala nicht festgelegt ist, können aufgrund dieser Zuordnungen immer noch keine Aussagen über Verhältnisse gemacht werden (wie z.B. ,, doppelt so stark ausgeprägt“ o.ä.). Dies ist erst bei der Verhältnisskala der Fall, bei der nur proportionale Transformationen zulässig sind.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

64: absolute Skala

Bei der absoluten Skala schließlich sind gar keine Transformationen mehr zulässig; dafür können dann auch alle Eigenschaften und Relationen der Zahlen zu Aussagen über die repräsentierten Objekte herangezogen werden.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

65: Erkenntnisgewinn in der klassischen Statistik

In der sog. klassischen Statistik [...] haben wir es mit folgender Vorgehensweise bei der Gewinnung oder Bestätigung neuer Erkenntnisse zu tun:

Der Forscher hat zunächst eine Hypothese, eine Aussage, die in bestimmter Weise seine Vorstellung von dem beobachteten Sachverhalt widerspiegelt oder abbildet. Es ist dabei formal zunächst unerheblich, woher diese Hypothese kommt; wichtig ist hier nur, daß sie eine Aussage über einen Sachverhalt macht, dessen Beobachtung unter den gegenwärtigen Bedingungen der Untersuchung prinzipiell möglich sein müßte.

Kausalhypothese; Experiment; Statistik; Fehler; Untersuchungsfehler; Entscheidung; Signifikanz;

{wendt:experimente_psy} 'Dirk Wendt' (1983) : Statistische Entscheidungstheorie und Bayes-Statistik

235: Rechnen - Ordnen

Wenn ich den Begriff des »Rechnens« verwende, dann beschränke ich ihn nicht auf spezifische Operationen wie z.B. Addition, Multiplikation usw. Ich möchte »Rechnen« im allgemeinen Sinn als einen Mechanismus oder »Algorithmus« des Ordnens bzw. der Erzeugung von Ordnung verstehen. Die ideale -- oder vielleicht sollte man sagen: die allgemeinste -- Darstellung eines solchen Mechanismus ist natürlich die Turingmaschine, und anhand dieser Maschine möchte ich einige meiner Behauptungen verdeutlichen. Es gibt zwei Ebenen, auf denen wir von »Ordnen« sprechen können. Einmal wollen wir eine gegebene Anordnung von Gegenständen beschreiben, zum anderen gewisse Dinge entsprechend bestimmten Beschreibungen neu anordnen. Diese beiden Operationen sind in der Tat die Grundlage für all das, was wir »Rechnen« nennen.

Kybernetik; Ethik; Konstruktivismus; Foerster; Experte; Wissen; Verantwortung; Ordnung; Rechnen;

{Foerster:Experten} '' () : Die Verantwortung des Experten

202: Explikation

Unter Explikation wird die Methode verstanden, für unscharfe umgangssprachliche Begriffe präzise Begriffe einzuführen. Dabei heißt Explikandum der gegebene unscharfe Begriff in der Umgangssprache oder Wissenschaftssprache. Explikat der resultierende scharfe Begriff, und Explikation das Verfahren der Analyse und Ersetzung des unscharfen durch einen scharfen Begriff. Darüber hinaus muß das Explikat bestimmte Bedingungen erfüllen, die Adäquatheitsbedingungen, um befriedigend zu sein

Wissenschaftstheorie; Wissen; Erkenntnis; Explikation; Adäquatheit; Begriff;

{poser:wissenschaftstheorie} 'Hans Poser' (2001) : Wissenschaftstheorie

368: virtuelle Identitätsarbeit

Im Informationszeitalter ergibt sich die Möglichkeit virtueller Identitätsarbeit. Im Kontext von Lern-und Entwicklungsprozessen der Subjekte (Subjektentwicklung) rücken damit virtuell gestützte Identitätsbildungsprozesse als Teil von Subjektbildung in den Fokus wissenschaftlicher Reflexion. Im konkreten Kontext designbasierter Didaktik muss darauf bezogen reflektiert werden, inwiefern und unter welchen Bedingungen insbesondere auch die Nachnutzungsphase digitaler Lernbausteine, durch virtuelle Identitätsarbeit und Selbstwirksamkeitserfahrung, einen Beitrag zur Subjektentwicklung leistet.

Didaktik; Fachdidaktik; Subjektentwickklung; Kompetenzentwicklung; E-Learning; Joted;

{diezemann2017designbasierte} 'Diezemann, Eckart and Schäfer, Markus' (2017) : Designbasierte Didaktik und Subjektentwicklung--theoretische Reflexion zum Unterrichtsprojekt KFZ4me. de

369: Phasen im Designprozess: Einstiegsphase

In der Einstiegsphase sollen grundsätzlich die sensorischen, kognitiven und motorischen Funktionen auf die Erreichung eines definierten Zielzustandes gerichtet und Intentionalität erzeugt werden. Im Rahmen der Lernfeldorientierung geschieht dies z.B. dadurch, dass ein Praxisproblem thematisiert wird. Das designbasierte didaktische Konzept zu dieser beispielhaften Lernsituation nimmt das Unterrichtselement Problemorientierter Einstieg auf.

Didaktik; Fachdidaktik; Subjektentwickklung; Kompetenzentwicklung; E-Learning; Joted;

{diezemann2017designbasierte} 'Diezemann, Eckart and Schäfer, Markus' (2017) : Designbasierte Didaktik und Subjektentwicklung--theoretische Reflexion zum Unterrichtsprojekt KFZ4me. de

370: Phasen im Designprozess: Planungsphase

In der Planungsphase wird die Vorgehensweise im Lernprozess diskutiert. Die Planungsphase bringt dabei einen Arbeitsplan hervor, der in erster Linie Orientierung schaffen soll. Diskutiert, dokumentiert und entschieden werden z.B.: *[ [die Aktionsformen des Lehrens und Lernens] [die Materialien zur Informationsbeschaffung] [die Zuständigkeiten und Sozialformen] [die Differenzierungen, die Über- und Unterforderung vermeiden sollen] [der Zeitplan und die Phasierung] [die Nutzung sächlicher Ressourcen [das Präsentationsformat bzw. das Produkt] [etc.] ]*

Didaktik; Fachdidaktik; Subjektentwickklung; Kompetenzentwicklung; E-Learning; Joted;

{diezemann2017designbasierte} 'Diezemann, Eckart and Schäfer, Markus' (2017) : Designbasierte Didaktik und Subjektentwicklung--theoretische Reflexion zum Unterrichtsprojekt KFZ4me. de

371: Phasen im Designprozess: Entwicklungsphase

Die Entwicklungsphase steht für eine vertiefte kreative Auseinandersetzung mit den exemplarischen Inhalten (Defiziterfahrungen) über mediale und/oder textbezogene Gestaltungsarbeit. Die Phase wird eng moderiert und integriert eine intensive sprachliche Auseinandersetzung mit dem exemplarischen Inhalt. [...] Im Ergebnis liefert die Entwicklungsphase zum einen digitale Artefakte in Form von Grafiken, PowerPoint-Präsentationen, Filmen etc. Zum anderen entsteht ein Drehbuch. Dieses Drehbuch enthält den Fachtext, der die digitalen Artefakte später zu einem auditiven multimedialen Lernbaustein macht. Das Drehbuch dokumentiert den Lernprozess, macht ihn überprüfbar und wird mit Blick auf Kompetenzentwicklungsprozesse ausgewertet.

Didaktik; Fachdidaktik; Subjektentwickklung; Kompetenzentwicklung; E-Learning; Joted;

{diezemann2017designbasierte} 'Diezemann, Eckart and Schäfer, Markus' (2017) : Designbasierte Didaktik und Subjektentwicklung--theoretische Reflexion zum Unterrichtsprojekt KFZ4me. de

372: Phasen im Designprozess: Produktion

Mittels verbaler Auseinandersetzung werden die digitalen Artefakte (Bilder, PowerPoint- Präsentationen etc.) aus der Entwicklungsphase in der Produktionsphase in einen auditiven Lernbaustein überführt. Die Lernbausteine werden dazu z.B. in einem speziellen Aufnahmeraum mittels Autorensystem [...] aufgezeichnet. Im Gegensatz zu einem improvisierten Real-Video handelt es sich hier um einen Screencast. Ein Screencast ist eine Video-Aufzeichnung, die die Abläufe bei der Verwendung von Software, hier einer speziellen Power-Point-Präsentation, am Computer-Bildschirm dokumentiert. Im speziellen Fall werden die Abläufe über den Audio-Kommentar (Drehbuchtext) begleitet. Der Text erscheint über die Teleprompter-Funktion und wird mehr oder weniger frei abgelesen.

Didaktik; Fachdidaktik; Subjektentwickklung; Kompetenzentwicklung; E-Learning; Joted;

{diezemann2017designbasierte} 'Diezemann, Eckart and Schäfer, Markus' (2017) : Designbasierte Didaktik und Subjektentwicklung--theoretische Reflexion zum Unterrichtsprojekt KFZ4me. de