Wie werden KI-Bildung und -Systeme erklärbar?Wissenschaftlicher Mitarbeiter und Doktorand in der Informatikdidaktik der Universität Hamburg, Moritz Kreinsen, ist Mitglied eines internationalen „Squad on Explainable AI in Education“ des European Digital Education Hubs der Europäischen Kommission
23. Oktober 2024
Foto: EDEH/EC
Mit dem zunehmenden Einfluss von KI-Systemen auf die Gestaltung von Unterricht, schulischen Leistungen und Bewertungen ist die Nachfrage nach Transparenz und Nachvollziehbarkeit dieser Systeme gestiegen. Erklärbare KI („explainable AI“; kurz: XAI) soll die Kluft zwischen komplexen KI-Algorithmen auf der einen Seite und Lehrenden, Lernenden und Mitarbeitern der Verwaltung auf der anderen Seite überbrücken, indem sie einen klaren Zugang dazu ermöglicht, wie KI-Systeme zu ihren Schlussfolgerungen kommen. Diese Transparenz ist von entscheidender Bedeutung, da sie das Vertrauen der Nutzer fördert, welche die Gründe für die KI-gesteuerten Entscheidungen, Empfehlungen und Aktionen sehen und verstehen können. Sie befähigt auch Lehrende, fundierte Entscheidungen über die Integration von KI-Tools in ihre Lehrstrategien zu treffen. Darüber hinaus wird sichergestellt, dass KI-Systeme ethische Standards einhalten, potenzielle Vorurteile abbauen und die Fairness bei Leistungsbewertungen fördern (Quelle: EDEH/EC).
Der European Digital Education Hub (EDEH) ist eine Initiative der Europäischen Kommission, die darauf abzielt, digitale Bildung und Lernpraktiken innerhalb der EU zu fördern und zu unterstützen. Der EDEH wurde ins Leben gerufen, um den Austausch von Informationen, Best Practices und Ressourcen im Bereich der digitalen Bildung zu erleichtern. Der EDEH ist Teil der Bemühungen der EU, die digitale Transformation im Bildungssektor voranzutreiben und sicherzustellen, dass alle Lernenden Zugang zu modernen, digitalen Lernumgebungen haben.
Um diese Ziele im Themenfeld „Explainable AI in Education“ zu erreichen, wurde im August 2024 für den Zeitraum bis Dezember 2024 ein digital-vernetztes „Squad“ bestehend aus Expert:innen verschiedener Bildungshintergründe, Schwerpunkte und Nationalitäten initiiert, welches Handlungsleitlinien und Ressourcen für Entscheidungsträger:innen und Lehrkräfte im Auftrag der Europäischen Kommission ausarbeiten soll. Flankiert wird dieses Squad von einem Workshop, welcher am 17./18.10.2024 in Brüssel stattfand und in dem in einem intensiven Austausch mit Mitgliedern der Europäischen Kommission erste Ergebnisse zusammengetragen wurden.
Moritz Kreinsen, wissenschaftlicher Mitarbeiter und Doktorand im Arbeitsbereich Informatikdidaktik der Universität Hamburg, ist Teil dieses Squads und in einer Untereinheit zum Thema „Explainable AI for AI Literacy“ tätig. Auf dem Workshop in Brüssel agierte er als „Facilitator“ einer Arbeitsgruppe zur Forschungsfrage „What are the key challenges and opportunities for ensuring explainability in generative AI models used in classroom settings, and how can these models be designed to provide interpretable feedback to educators and learners?”.
Die Ergebnisse der Arbeit des EDEH Squad werden im Dezember 2024 der Europäischen Kommission übergeben.