Bias und Fairness: Wie beeinflussen Stereotype generative KI? - Prof. Dr. Anne Lauscher - University of Hamburg
- Lecture2Go
- Catalog
- Sonstige Einrichtungen der UHH
- Zentrum für interdisziplinäre Studienangebote
- DDLitLab- Generative KI an der Universität Hamburg
Catalog

Video Player is loading.
Current Time 0:00
/
Duration 9:24
Loaded: 1.05%
0:00
Stream Type LIVE
Remaining Time -9:24
1x
- 1.5x
- 1.25x
- 1x, selected
- 0.75x
- descriptions off, selected
- captions settings, opens captions settings dialog
- captions off, selected
- Deutsch (automatisch erzeugt) Captions
- Quality
- 360p
- 540p
- 720p
- 1080p
- Auto, selected
- default, selected
This is a modal window.
Beginning of dialog window. Escape will cancel and close the window.
End of dialog window.
619 Views
16.02.2024
Bias und Fairness: Wie beeinflussen Stereotype generative KI?
Wir sprechen mit Prof. Dr. Anne Lauscher darüber, wie generative KI von Stereotypen beeinflusst wird und woran man erkennt, dass generierter Inhalt biased ist. Sie ist Professorin für Data Science im Bereich Betriebswirtschaftslehre/Informatik an der Fakultät für Betriebswirtschaftslehre.
Generative KI im Studium an der UHH: https://www.isa.uni-hamburg.de/ddlitlab/gki/gki...
Das ganze Gespräch finden Sie unter: https://www.uni-hamburg.de/lehre-navi/lehrende/...
Dieses Interview ist Teil einer Gesprächsreihe mit Expert:innen der Universität Hamburg im Bereich generativer KI. In dieser Reihe beleuchten wir das Thema generative KI aus unterschiedlichen Forschungsperspektiven und Arbeitsbereichen.
Produziert vom Team DUTy im DDLitLab (2024).
uhh.de/ddlitlab
More
Share
This video may be embedded in other websites. You must copy the embeding code and paste it in the desired location in the HTML text of a Web page. Please always include the source and point it to lecture2go!
Technical support
Please click on the link bellow and then fill out the required fields to contact our Support Team!
RRZ Support Link