Peer-Reviews konfigurieren¶
Peer-Reviews sind eine starke Lern-Methode: Lernende bewerten gegenseitig die Arbeiten anderer und lernen dabei doppelt — beim Verfassen einer eigenen Antwort und beim aufmerksamen Lesen fremder Antworten. Diese Seite zeigt, wie du eine Peer-Review-Aufgabe in einem Kurs aufsetzt.
Wann Peer-Review sinnvoll ist¶
Peer-Review passt gut bei:
- Reflexions-Aufgaben — eigene Erfahrungen, persönliche Anwendung des Lernstoffs
- Praxis-Beispielen — Lernende sollen ein eigenes Beispiel oder Projekt einreichen
- Weichen Kompetenzen (Kommunikation, Argumentation) — wo es kein „richtig/falsch" gibt
- Größeren Klassen — wo individuelle Trainer-Bewertung nicht skaliert
Bei reinen Wissens-Tests ist klassisches Multiple-Choice oder KI-Freitext-Bewertung effizienter.
Eine Peer-Review-Aufgabe anlegen¶
Peer-Review wird als eigener Lektionstyp innerhalb eines Kurses konfiguriert.
- In deinem Kurs eine neue Lektion anlegen.
- Lektionstyp Peer-Review-Aufgabe wählen.
- Aufgabenstellung verfassen — klar formuliert, was Lernende einreichen sollen.
- Antwort-Format wählen:
- Freitext (im Browser eintippen)
- Datei-Upload (PDF, Bild, ZIP, …)
- Beides
- Anzahl Reviewer pro Einreichung festlegen — typisch 2-3.
- Bewertungskriterien definieren (siehe nächster Abschnitt).
- Anonymisierung wählen — Standard: Reviewer und Einreichende kennen sich nicht.
- Frist setzen — wann müssen Einreichungen + Reviews durch sein.
- Speichern.
📸 Screenshot folgt
Peer-Review-Konfiguration mit Aufgabenstellung und Kriterien
Bewertungskriterien definieren¶
Peer-Review-Bewertungen sind kein einfaches „1-5 Sterne". Du legst pro Aufgabe ein Set von Kriterien fest. Drei Frage-Typen kombinierbar:
Skala-Fragen¶
Eine Frage mit Skala 1-5 (oder 1-10).
Beispiele: - „Wie klar ist die Argumentation?" 1 (sehr unklar) — 5 (sehr klar) - „Wie gut wurde der Lernstoff angewandt?" 1-5 - „Wie nachvollziehbar ist die Reflexion?" 1-5
Ja/Nein-Fragen¶
Binäre Checkliste — entweder erfüllt oder nicht.
Beispiele: - „Wurden alle Anforderungen aus der Aufgabenstellung adressiert?" - „Sind Quellen korrekt zitiert?" - „Ist die Einreichung formal vollständig?"
Freitext-Feedback¶
Reviewer geben in einem freien Textfeld qualitatives Feedback. Das ist für die einreichende Person oft das wertvollste.
Empfehlung: mische die Frage-Typen — 2-3 Skala-Fragen für strukturierte Bewertung, 1-2 Ja/Nein-Fragen für formale Anforderungen, ein Pflicht-Freitextfeld für qualitative Hinweise.
Anonymisierung¶
Drei Stufen:
| Modus | Wer sieht was |
|---|---|
| Vollständig anonym (Default) | Reviewer kennt nicht den/die Einreichende, Einreichende kennt nicht die Reviewer |
| Reviewer anonym | Einreichende sehen Bewertungs-Inhalt, aber nicht von wem |
| Offen | Alle Namen sichtbar — fördert direkten Austausch, kann aber Selbst-Zensur erzeugen |
Empfohlen in den meisten Fällen: vollständig anonym. Lernende geben ehrlicheres Feedback, wenn sie nicht persönlich verbunden sind.
Reviewer-Zuweisung¶
- Das System weist Reviewer automatisch zu, sobald eine Person eine Arbeit einreicht.
- Reviewer kommen aus dem Pool aller eingeschriebenen Lernenden — die einreichende Person selbst wird ausgeschlossen.
- Pro Einreichung die im Setup festgelegte Anzahl Reviewer.
Du musst als Trainer:in keine manuelle Zuweisung machen. Bei sehr kleinen Klassen (< 4 Lernende) reicht der Pool nicht — dann fällt die Reviewer-Zuweisung knapper aus oder einzelne Reviewer bekommen mehrere Arbeiten.
Workflow für Lernende¶
Pro Lernende:n laufen zwei Phasen:
- Einreichen: eigene Antwort hochladen oder eintippen, Frist beachten
- Bewerten: zugewiesene fremde Arbeiten lesen und nach den Kriterien bewerten
Lernende sehen die Bewertungs-Aufgaben unter Peer-Reviews in der Hauptnavigation. Ausführliche Anwender-Anleitung: für Lernende: Peer-Reviews.
Reviews der Reviews — als Trainer:in¶
Du als Trainer:in siehst:
- Welche Einreichungen wann von wem gemacht wurden
- Welche Reviews wann von wem geschrieben wurden
- Wo Reviews fehlen (z. B. weil ein:e Reviewer:in die Frist verpasst hat)
In Analytics → Lektions-Auswertung → Peer-Reviews alle Daten zur Aufgabe.
Wenn Reviews unbrauchbar sind¶
Manchmal kommt von Reviewer:innen schwaches Feedback („alles gut", oder schlechter: „blöde Antwort"). Du kannst:
- Einzelne Bewertungen als ungültig markieren — sie zählen nicht in den Durchschnitt
- Bei beleidigendem Inhalt: Bewertung löschen und ggf. mit dem/der Reviewer:in sprechen
- Bei systematisch schwachem Feedback: Workshop-Idee „wie schreibe ich gutes Peer-Review-Feedback" als nächste Kurs-Iteration einbauen
Häufige Fragen¶
Was passiert, wenn ein:e Reviewer:in die Frist verpasst? Die Bewertung bleibt offen, der/die Reviewer:in kann sie auch nach Frist abgeben. Im Trainer-Analytics ist sichtbar, wer überfällig ist. Bei wiederholtem Verpassen: organisatorisch nachfragen oder Reviewer:in austauschen.
Kann ich Reviewer manuell zuweisen? Aktuell nicht im UI vorgesehen — Zuweisung ist automatisch. Wenn ein bestimmtes Pairing nicht funktioniert (z. B. weil sich zwei Personen außer-akademisch nicht vertragen), kannst du der einreichenden Person eine zusätzliche Trainer-Bewertung als „menschlich gegenchecken" anbieten.
Wie viele Reviewer pro Einreichung sind sinnvoll? - Zwei reicht oft, gibt zwei Perspektiven - Drei glättet Ausreißer (eine sehr strenge oder sehr lasche Bewertung wird ausgeglichen) - Vier oder mehr lohnt sich kaum, der Aufwand pro Lernende:r wird zu groß
Sehe ich, welche Reviews welche Bewertungen bekommen haben — als Bewertung der Reviewer:innen? Direkte „Reviews der Reviews" gibt es nicht. Wenn dir gute Review-Praxis wichtig ist, gib selber stichprobenartig Feedback an Reviewer:innen — schicke z. B. eine Direktnachricht „Dein Feedback an Person X war besonders konstruktiv".
Lernende fühlen sich unfair bewertet — was tun? Erste Maßnahme: Bewertung selbst nachprüfen. Wenn die Reviewer-Bewertung wirklich schief ist, eigene Trainer-Bewertung als „Korrektiv" hinzufügen. Bei wiederholten Fairness-Diskussionen: vielleicht ist dein Kriterien-Set nicht klar genug — Bewertungskriterien anpassen.