Kann künstliche Intelligenz vorurteilsfrei sein?(Nr. Lunch & Learn)
ChatGPT und Co. sind überall. Sie schreiben unsere Mails, brainstormen Ideen und beraten uns bei persönlichen Fragen. Sind sie jedoch neutral? Künstliche Intelligenz spiegelt die Vorurteile unserer Gesellschaft wider, denn die Algorithmen werden mit Daten trainiert, die systematische Verzerrungen enthalten.
Yanick Schraner, Leiter KI beim Statistischen Amt, zeigt auf, wie und wieso KI-Anwendungen Vorurteile reproduzieren können und welche Auswirkungen dies auf unsere Arbeit und unsere Entscheidungen haben kann.
In dieser Mittagsveranstaltung diskutieren wir Ansätze, wie wir geschlechtsspezifische, ethnische und sozioökonomische Vorurteile in KI-Anwendungen erkennen und minimieren können.
Tauschen Sie sich mit anderen Führungskräften darüber aus, wie Sie KI-Anwendungen gewinnbringend nutzen können, ohne Stereotype und Vorurteile zu reproduzieren.
