| [gesichtete Version] | [gesichtete Version] |
| (4 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
| Zeile 1: | Zeile 1: | ||
Der [https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai EU AI Act] (KI-Gesetz) schafft erstmals einen umfassenden, europaweiten Rechtsrahmen für die Entwicklung und Nutzung von Künstlicher Intelligenz. Ziel ist es, den Einsatz von KI-Systemen sicher, ethisch und kompetenzorientiert zu gestalten, um sowohl die Chancen von KI zu fördern als auch Risiken wirksam zu begrenzen. Die Verordnung unterscheidet KI-Anwendungen nach ihrem Risiko: von minimal über begrenzt bis hin zu hoch und inakzeptabel. Besonders Hochrisiko-Anwendungen – etwa im Bereich der Bewertung von Studierenden oder bei automatisierten Verwaltungssystemen – unterliegen strengen Auflagen hinsichtlich Sicherheit, Transparenz, Datenschutz und Nachvollziehbarkeit. | Der [https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai EU AI Act] (KI-Gesetz) schafft erstmals einen umfassenden, europaweiten Rechtsrahmen für die Entwicklung und Nutzung von Künstlicher Intelligenz. Ziel ist es, den Einsatz von KI-Systemen sicher, ethisch und kompetenzorientiert zu gestalten, um sowohl die Chancen von KI zu fördern als auch Risiken wirksam zu begrenzen. Die Verordnung unterscheidet KI-Anwendungen nach ihrem Risiko: von minimal über begrenzt bis hin zu hoch und inakzeptabel. Besonders Hochrisiko-Anwendungen – etwa im Bereich der Bewertung von Studierenden oder bei automatisierten Verwaltungssystemen – unterliegen strengen Auflagen hinsichtlich Sicherheit, Transparenz, Datenschutz und Nachvollziehbarkeit. | ||
Hochschulen sind von diesen Regelungen in mehreren Funktionen betroffen: als Ausbildungsstätten, Forschungsinstitutionen und teils auch als Anbieter oder Betreiber von KI-Systemen. Sie müssen Forschungsprojekte und Lehrmethoden kritisch prüfen und an die gesetzlichen Anforderungen, insbesondere bei Hochrisiko-Anwendungen, anpassen. Dies erfordert oft umfassende Risikoanalysen und die Sicherstellung der Einhaltung rechtlicher Rahmenbedingungen, wie der Datenschutz-Grundverordnung (DSGVO), insbesondere wenn personenbezogene Daten verarbeitet werden (siehe [[Rechtliche Rahmenbedingungen für generative KI in der Lehre]]) (<cite id="68b6bd329430c">Europaeische+Kommission+2025</cite>, <cite id="68b6bd3294312">ZIM+2025 | Hochschulen sind von diesen Regelungen in mehreren Funktionen betroffen: als Ausbildungsstätten, Forschungsinstitutionen und teils auch als Anbieter oder Betreiber von KI-Systemen. Sie müssen Forschungsprojekte und Lehrmethoden kritisch prüfen und an die gesetzlichen Anforderungen, insbesondere bei Hochrisiko-Anwendungen, anpassen. Dies erfordert oft umfassende Risikoanalysen und die Sicherstellung der Einhaltung rechtlicher Rahmenbedingungen, wie der Datenschutz-Grundverordnung (DSGVO), insbesondere wenn personenbezogene Daten verarbeitet werden (siehe [[Rechtliche Rahmenbedingungen für generative KI in der Lehre]]) (<cite id="68b6bd329430c">Europaeische+Kommission+2025</cite>, <cite id="68b6bd3294312">ZIM+2025</cite>). | ||
=== Anforderungen an Anbieter und Betreiber von KI-Systemen gem. Artikel 4 === | === Anforderungen an Anbieter und Betreiber von KI-Systemen gem. Artikel 4 === | ||
| Zeile 18: | Zeile 18: | ||
<loop_row> | <loop_row> | ||
<loop_title>Technologische Kompetenzen</loop_title> | <loop_title>Technologische Kompetenzen</loop_title> | ||
*Alltägliche Technologien, die KI-gestützte Funktionen integriert haben, benennen | *Alltägliche Technologien, die KI-gestützte Funktionen integriert haben, benennen. | ||
*Grundlegende Begriffe und Funktionsweisen generativer KI beschreiben und Beispiele dazu nennen (z.B. Algorithmus, Training generativer KI, Bias, Sprachmodell, Prompt, Output und Token) | *Grundlegende Begriffe und Funktionsweisen generativer KI beschreiben und Beispiele dazu nennen (z.B. Algorithmus, Training generativer KI, Bias, Sprachmodell, Prompt, Output und Token). | ||
*Wesentliche Unterschiede zwischen "Mensch" und "KI-System" im Kontext von "Verständnis" und "Interaktion" nennen (z.B. fehlende Reflexivität, imitierte Empfindungsfähigkeit, simulierte Kompetenzen) | *Wesentliche Unterschiede zwischen "Mensch" und "KI-System" im Kontext von "Verständnis" und "Interaktion" nennen (z.B. fehlende Reflexivität, imitierte Empfindungsfähigkeit, simulierte Kompetenzen). | ||
*In groben Zügen erläutern, wie Verzerrungen und Fehlinformationen in Outputs entstehen und mit welchen Mitteln diese Phänomene reduziert werden | *In groben Zügen erläutern, wie Verzerrungen und Fehlinformationen in Outputs entstehen und mit welchen Mitteln diese Phänomene reduziert werden. | ||
*Notwendige Anforderungen an KI-Tools für ihre Einsatzszenarien beschreiben und | *Notwendige Anforderungen an KI-Tools für ihre Einsatzszenarien beschreiben und Tool-Übersichtsseiten und andere Quellen kennen. | ||
*KI-Tools für spezifische Einsatzzwecke auswählen und situativ einsetzen | *KI-Tools für spezifische Einsatzzwecke auswählen und situativ einsetzen. | ||
*Grundlegende Kriterien für Prompting-Strategien kennen und diese anwenden, um passende Outputs zu erhalten | *Grundlegende Kriterien für Prompting-Strategien kennen und diese anwenden, um passende Outputs zu erhalten. | ||
*Die Plausibilität von KI-Output einschätzen und auf typische Phänomene überprüfen (z.B. Halluzinationen, lückenhafte Trainingsdaten, fehlender Kontext) | *Die Plausibilität von KI-Output einschätzen und auf typische Phänomene überprüfen (z.B. Halluzinationen, lückenhafte Trainingsdaten, fehlender Kontext). | ||
</loop_row> | </loop_row> | ||
<loop_row> | <loop_row> | ||
<loop_title>Rechtliche Kompetenzen</loop_title> | <loop_title>Rechtliche Kompetenzen</loop_title> | ||
*Relevante rechtliche Rahmenbedingungen (z.B. Urheberrecht, Datenschutz, Datensicherheit und EU AI Act) benennen und in Grundzügen deren Bedeutung für die praktische Nutzung von KI erläutern | *Relevante rechtliche Rahmenbedingungen (z.B. Urheberrecht, Datenschutz, Datensicherheit und EU AI Act) benennen und in Grundzügen deren Bedeutung für die praktische Nutzung von KI erläutern. | ||
*Rechtlichen Rahmenbedingungen an der eigenen Institution kennen und Konsequenzen für ihr eigenes Handeln ableiten (z.B. erlaubte KI-Tools, Nutzungsbedingungen, Kennzeichnungspflicht, Prüfungsrecht) | *Rechtlichen Rahmenbedingungen an der eigenen Institution kennen und Konsequenzen für ihr eigenes Handeln ableiten (z.B. erlaubte KI-Tools, Nutzungsbedingungen, Kennzeichnungspflicht, Prüfungsrecht). | ||
</loop_row> | </loop_row> | ||
<loop_row> | <loop_row> | ||
| Zeile 36: | Zeile 36: | ||
*Die Verantwortung für den eigenen KI-Einsatz tragen. | *Die Verantwortung für den eigenen KI-Einsatz tragen. | ||
*Relevante ethische Dimensionen in Bezug auf KI benennen und erläutern (z. B. Bias, Fairness, Verantwortung, gute wissenschaftliche Praxis). | *Relevante ethische Dimensionen in Bezug auf KI benennen und erläutern (z. B. Bias, Fairness, Verantwortung, gute wissenschaftliche Praxis). | ||
*Sich für den Ressourcenverbrauch und die Nachhaltigkeitsaspekte von KI-Nutzung sensibilisieren | *Sich für den Ressourcenverbrauch und die Nachhaltigkeitsaspekte von KI-Nutzung sensibilisieren. | ||
*Wissen, dass der KI-Output durch die Wiedergabe von Stereotypen aus Trainingsdaten, der Programmierung und weiteren Entwicklungsschritten beeinflusst wird und konkrete Beispiele benennen. | *Wissen, dass der KI-Output durch die Wiedergabe von Stereotypen aus Trainingsdaten, der Programmierung und weiteren Entwicklungsschritten beeinflusst wird und konkrete Beispiele benennen. | ||
*Mögliche soziale und gesellschaftliche Auswirkungen durch KI-Technologien benennen (z. B. Veränderungen in Berufsbildern, Up-/Deskilling, soziale Ungleichheit, Inklusion, Einfluss und Abhängigkeiten von Technologiekonzernen, veränderte Kommunikations- und Sozialisationsprozesse) | *Mögliche soziale und gesellschaftliche Auswirkungen durch KI-Technologien benennen (z. B. Veränderungen in Berufsbildern, Up-/Deskilling, soziale Ungleichheit, Inklusion, Einfluss und Abhängigkeiten von Technologiekonzernen, veränderte Kommunikations- und Sozialisationsprozesse). | ||
</loop_row> | </loop_row> | ||
</loop_accordion> | </loop_accordion> | ||
(<cite id="695e1a48e4616">Brueck-Huebner+2025</cite>, etwas gekürzt wiedergegeben). | |||
=== Anforderungen an Lehrende und Studierende === | === Anforderungen an Lehrende und Studierende === | ||
| Zeile 60: | Zeile 62: | ||
Auch Studierende müssen über die reine Anwendung hinausgehen: Sie sollen die Funktionsweise, Potenziale und Risiken von KI verstehen, diese kritisch einordnen und verantwortungsvoll in unterschiedlichen Kontexten nutzen können (<cite id="68b6bd62acbf2">ZIM+2025 | Auch Studierende müssen über die reine Anwendung hinausgehen: Sie sollen die Funktionsweise, Potenziale und Risiken von KI verstehen, diese kritisch einordnen und verantwortungsvoll in unterschiedlichen Kontexten nutzen können (<cite id="68b6bd62acbf2">ZIM+2025</cite>). | ||
Was "KI-Kompetenz" im Hochschulkontext bedeutet und wie sie gefördert werden kann, wird auf den folgenden Seiten erläutert. | Was "KI-Kompetenz" im Hochschulkontext bedeutet und wie sie gefördert werden kann, wird auf den folgenden Seiten erläutert. | ||
Der EU AI Act (KI-Gesetz) schafft erstmals einen umfassenden, europaweiten Rechtsrahmen für die Entwicklung und Nutzung von Künstlicher Intelligenz. Ziel ist es, den Einsatz von KI-Systemen sicher, ethisch und kompetenzorientiert zu gestalten, um sowohl die Chancen von KI zu fördern als auch Risiken wirksam zu begrenzen. Die Verordnung unterscheidet KI-Anwendungen nach ihrem Risiko: von minimal über begrenzt bis hin zu hoch und inakzeptabel. Besonders Hochrisiko-Anwendungen – etwa im Bereich der Bewertung von Studierenden oder bei automatisierten Verwaltungssystemen – unterliegen strengen Auflagen hinsichtlich Sicherheit, Transparenz, Datenschutz und Nachvollziehbarkeit.
Hochschulen sind von diesen Regelungen in mehreren Funktionen betroffen: als Ausbildungsstätten, Forschungsinstitutionen und teils auch als Anbieter oder Betreiber von KI-Systemen. Sie müssen Forschungsprojekte und Lehrmethoden kritisch prüfen und an die gesetzlichen Anforderungen, insbesondere bei Hochrisiko-Anwendungen, anpassen. Dies erfordert oft umfassende Risikoanalysen und die Sicherstellung der Einhaltung rechtlicher Rahmenbedingungen, wie der Datenschutz-Grundverordnung (DSGVO), insbesondere wenn personenbezogene Daten verarbeitet werden (siehe Rechtliche Rahmenbedingungen für generative KI in der Lehre) (Europaeische Kommission 2025, ZIM 2025).
Ein Teil des EU AI-Acts ist Artikel 4. Er enthält die Grundpflichten für Anbieter und Betreiber von KI-Systemen. Er formuliert allgemeine Anforderungen wie: Transparenz, Nachvollziehbarkeit, Menschenaufsicht („human oversight“), Sicherheit und Robustheit. Diese Grundprinzipien gelten für alle KI-Systeme, unabhängig davon, ob sie später als geringes, hohes oder unzulässiges Risiko eingestuft werden.
Artikel 4 verpflichtet auch Hochschulen als Anbieter oder Betreiber von KI-Systemen, dafür zu sorgen, dass alle beteiligten Personen über ausreichende KI-Kompetenzen verfügen. Dabei können die notwendigen Komptetenzen für die verschiedenen Zielgruppen je nach Rolle unterschiedlich sein.
Artikel 4 nennt nicht exakt, wie die Kompetenz vermittelt werden muss – aber umreißt die Themen. Darunter fallen: grundlegendes Funktionsverständnis KI-gestützter Systeme einschließlich Wissen über Grenzen und Fehlerrisiken, Risiko- und Datenschutzbewusstsein, insbesondere mit Blick auf sensible Daten, verantwortlicher Einsatz und menschliche Aufsicht sowie eine Sensibilität für den Kontext, in dem KI genutzt wird (z. B. Prüfungswesen, Verwaltung etc.).
Durch Artikel 4 stellt die KI-Verordnung sicher, dass Hochschulen KI verantwortungsbewusst und kompetent einsetzen – und Risiken für Studierende, Forschungsethik, Datenschutz, Fairness und Prüfungsintegrität minimieren.
Folgende Lernziele leiten Brück-Hübner et al. aus dem EU AI-Act ab:
(Brueck-Huebner 2025, etwas gekürzt wiedergegeben).
Ein zentrales Ziel des EU AI Acts ist die Förderung von KI-Kompetenz. Daraus ergeben sich neue Anforderungen auch für Lehrende und Studierende:
Lehrende tragen dabei eine doppelte Verantwortung: Einerseits sind sie verpflichtet, KI-Systeme selbst rechtskonform, transparent und sicher einzusetzen. Andererseits sollen sie Studierende dazu befähigen, kompetent und kritisch mit KI umzugehen.
Der Bericht "Die KI-Verordnung der EU als Impuls für die Entwicklung von AI Literacy an Hochschulen" nennt folgende Leitfragen, anhand derer Lehrende die Förderung der KI-Kompetenzen ihrer Studierenden entwickeln können:
Auch Studierende müssen über die reine Anwendung hinausgehen: Sie sollen die Funktionsweise, Potenziale und Risiken von KI verstehen, diese kritisch einordnen und verantwortungsvoll in unterschiedlichen Kontexten nutzen können (ZIM 2025).
Was "KI-Kompetenz" im Hochschulkontext bedeutet und wie sie gefördert werden kann, wird auf den folgenden Seiten erläutert.
Wer das Thema EU AI Act vertiefen möchte, der findet hier Materialien:
Inhalt:
Inhalt:
Lernziele:
Nach Abschluss des Kurses...
Dauer: 8 h
Anbieter: KI-Campus
Inhalt:
In diesem Onlinekurs lernst du, was hinter dem EU AI Act steckt und wie er die Arbeit an Hochschulen und in der Lehre beeinflusst.
Nach einer Einführung in die Grundlagen von KI und den Zielen der Verordnung erfährst du anhand anschaulicher Beispiele, welche Risikogruppen für KI-Systeme existieren und wie deren Regulierung konkret aussieht.
Du lernst, wie der AI Act an Hochschulen umgesetzt wird, welche Maßnahmen notwendig sind und welche Herausforderungen dabei entstehen.
Der Kurs bietet dir einen leicht zugänglichen Einstieg in die rechtlichen Rahmenbedingungen, damit du KI in Lehre und Forschung verantwortungsvoll und innovativ einsetzen kannst.
Lernziele:
Dauer: 1.5 h
Anbieter: Netzwerk Landeseinrichtungen für digitale Hochschullehre
Erstellt von:
Zentrum Digitale Lehre
http://th-luebeck.de/zdl