Zum Inhalt

KI-Qualitätsprüfung

Die KI-Qualitätsprüfung ist eine automatische Diagnose deines Kurses anhand von fünf didaktischen Dimensionen. In 15-30 Sekunden bekommst du einen Gesamt-Score plus konkrete Verbesserungsempfehlungen — ideal als Sanity-Check vor Veröffentlichung oder bei niedrigen Abschluss-Quoten.

Was die Prüfung bewertet

Fünf Dimensionen, jeweils mit eigenem Score 0-100:

Dimension Was geprüft wird
Vollständigkeit Sind alle wesentlichen Inhalte da? Gibt's offensichtliche Lücken?
Struktur Ist der Aufbau logisch? Gibt es einen sinnvollen roten Faden?
Inhalt Ist der Inhalt fachlich relevant, aktuell und zur Zielgruppe passend?
Lernziele Sind die Lernziele klar und überprüfbar?
Schwierigkeitsgrad Passt das Niveau zur deklarierten Zielgruppe?

Aus den fünf Dimensionen ergibt sich ein Gesamt-Score 0-100 mit Farbkodierung:

  • 🟢 75-100 — gute Qualität
  • 🟡 50-74 — Verbesserungsbedarf
  • 🔴 0-49 — erheblicher Verbesserungsbedarf

Die Prüfung starten

Du kannst die Prüfung an zwei Stellen auslösen:

Vom Kurskatalog aus

  1. Im Kurskatalog deinen Kurs finden.
  2. Auf der Karte das Qualitäts-Icon klicken.
  3. Im Dialog auf Jetzt prüfen — bzw. Erneut prüfen, falls bereits Ergebnisse vorliegen.

Vom Trainer-Analytics aus

  1. Analytics → Kurse.
  2. In der Kurs-Tabelle Spalte KI-Qualität mit dem aktuellen Score.
  3. Klick auf den Score öffnet denselben Dialog → Erneut prüfen.

📸 Screenshot folgt

Qualitäts-Dialog mit Kreis-Diagramm Gesamt-Score und Dimensions-Balken

Während der Analyse läuft ein Ladeindikator („KI analysiert den Kurs…"). Schließt du den Dialog, bricht die Analyse serverseitig nicht ab — der Wert aktualisiert sich aber erst beim nächsten Aufruf.

Die Ergebnisse verstehen

Im Dialog siehst du:

  • Gesamt-Score als Kreisdiagramm + Datum der letzten Prüfung
  • Dimensions-Balken mit Score und individuellem Feedback pro Dimension
  • Stärken — Liste dessen, was besonders gut funktioniert (ein Pluspunkt für deinen Kurs!)
  • Empfehlungen — konkrete Maßnahmen-Vorschläge, z. B. „Quizze zur Wissensüberprüfung ergänzen" oder „Lernziele in Lektion 3 präziser formulieren"

Was die Prüfung NICHT bewertet

Die Prüfung analysiert Metadaten und Struktur des Kurses — Kurstitel, Beschreibung, Schwierigkeitsgrad, Lektionstitel und Lektionstypen. Sie schaut nicht auf die mediale Qualität deiner Inhalte: Videos, eingebettete H5P-Inhalte, PDF-Anhänge werden inhaltlich nicht geprüft. Die Beurteilung der medialen Qualität bleibt redaktionell — die KI ist hier ein Werkzeug, kein Ersatz.

Wann sich eine Prüfung lohnt

  • Vor der Veröffentlichung — letzter Sanity-Check, ob Struktur und Stoffabdeckung stimmen
  • Nach größeren inhaltlichen Änderungen — neuer Lektions-Block, Lernziel-Anpassung, ergänzte Quizze
  • Bei niedrigen Abschluss-Quoten oder schlechten Lernenden-Bewertungen — als Diagnose-Werkzeug, woran's liegen könnte
  • Vor jährlicher Auffrischung — passt die Schwierigkeit noch zur Zielgruppe?

Es gibt keinen Cooldown — du kannst die Prüfung beliebig oft starten.

Konkrete Empfehlungen interpretieren

Beispiele und wie damit umgehen:

Empfehlung Was du machen kannst
„Lernziele präziser formulieren" Nochmal überlegen: was sollen Lernende konkret nach dem Kurs können? Maximal 3-5 klare Sätze in der Beschreibung.
„Mehr Wissensüberprüfungen einbauen" Quiz-Lektion(en) zwischen längere Erklär-Strecken einfügen. Siehe Quiz und Bewertung.
„Schwierigkeitsstufung überprüfen" Sind erste Lektionen wirklich für Anfänger:innen? Oder springst du zu schnell ins Detail?
„Roter Faden unklar" Lektions-Reihenfolge prüfen, eventuell zwischen Themen einen Übergangs-Text einbauen.
„Geschätzte Dauer wirkt zu kurz/zu lang" Selbst durchspielen oder eine Test-Lerngruppe fragen, wie lange sie tatsächlich brauchen.

Häufige Fragen

Die Prüfung gibt mir einen niedrigen Score, aber meine Lernenden sind zufrieden. Beide Sichten sind valide — die KI bewertet didaktische Struktur, deine Lernenden bewerten Praxisnutzen. Wenn der Kurs in der Praxis funktioniert, sind die KI-Empfehlungen optionale Verbesserung, kein Muss.

Wie oft sollte ich prüfen? In der Erstellungsphase ein paar Mal durch, jeder Anpassung folgt eine neue Prüfung. Im Live-Betrieb maximal alle paar Monate. Häufige Re-Prüfungen ohne Änderungen liefern fast identische Ergebnisse.

Mein Kurs hat in mehreren Dimensionen sehr unterschiedliche Scores — was tun? Konzentriere dich auf die niedrigsten Scores zuerst — dort ist der größte Gewinn pro Aufwand. Ignorier nicht die hohen Scores, aber Prioritäten setzen ist der schnellste Weg zu spürbarer Qualitäts-Verbesserung.

Die KI gibt mir Empfehlungen, die ich für falsch halte. Du kennst deinen Kurs und deine Lernenden besser als die KI. Sieh Empfehlungen als Vorschläge, nicht als Anweisungen. Wenn eine Empfehlung dir falsch scheint, übergeh sie.

Sehen Lernende den Score? Aktuell ja — wenn der Katalog so konfiguriert ist, dass Quality-Scores angezeigt werden. Niedrige Scores wirken abschreckend. Wenn du erst noch verbessern willst, prüf die Konfiguration mit deiner Plattform-Verantwortlichen.