Bias und Fairness: Wie beeinflussen Stereotype generative KI? - Prof. Dr. Anne Lauscher - Universität Hamburg
- Lecture2Go
- Videokatalog
- Sonstige Einrichtungen der UHH
- Zentrum für interdisziplinäre Studienangebote
- DDLitLab- Generative KI an der Universität Hamburg
Videokatalog
445 Aufrufe
16.02.2024
Bias und Fairness: Wie beeinflussen Stereotype generative KI?
Gibt es Stereotype auch in Chatbots wie ChatGPT? Woran kann ich merken, dass generierter Content biased ist?
Dieses Interview ist Teil einer Gesprächsreihe mit Expert:innen der Universität Hamburg im Bereich generativer KI. In dieser Reihe beleuchten wir das Thema generative KI aus unterschiedlichen Forschungsperspektiven und Arbeitsbereichen.
Produziert vom Team DUTy im DDLitLab, 2024.
uhh.de/ddlitlab
Teilen
Dieses Video darf in andere Webseiten eingebunden werden. Kopieren Sie dazu den Code zum Einbetten und fügen Sie diesen an der gewünschten Stelle in den HTML-Text einer Webseite ein. Geben Sie dabei bitte immer die Quelle an und verweisen Sie auf Lecture2Go!
Technischer Support
Bitte klicken Sie auf den nachfolgenden Link und füllen Sie daraufhin die notwendigen Felder aus, um unser Support-Team zu kontaktieren!
Link zu der RRZ-Support-Seite