Bias und Fairness: Wie beeinflussen Stereotype generative KI? - Prof. Dr. Anne Lauscher - Universität Hamburg
- Lecture2Go
- Videokatalog
- Sonstige Einrichtungen der UHH
- Zentrum für interdisziplinäre Studienangebote
- DDLitLab- Generative KI an der Universität Hamburg
Videokatalog
1250 Aufrufe
16.02.2024
Bias und Fairness: Wie beeinflussen Stereotype generative KI?
Wir sprechen mit Prof. Dr. Anne Lauscher darüber, wie generative KI von Stereotypen beeinflusst wird und woran man erkennt, dass generierter Inhalt biased ist. Sie ist Professorin für Data Science im Bereich Betriebswirtschaftslehre/Informatik an der Fakultät für Betriebswirtschaftslehre.
Generative KI im Studium an der UHH: https://www.isa.uni-hamburg.de/ddlitlab/gki/gki...
Das ganze Gespräch finden Sie unter: https://www.uni-hamburg.de/lehre-navi/lehrende/...
Dieses Interview ist Teil einer Gesprächsreihe mit Expert:innen der Universität Hamburg im Bereich generativer KI. In dieser Reihe beleuchten wir das Thema generative KI aus unterschiedlichen Forschungsperspektiven und Arbeitsbereichen.
Produziert vom Team DUTy im DDLitLab (2024).
uhh.de/ddlitlab
Technischer Support
Bitte klicken Sie auf den nachfolgenden Link und füllen Sie daraufhin die notwendigen Felder aus, um unser Support-Team zu kontaktieren!
Link zu der RRZ-Support-Seite