Webinar

Ethik für KI – Risiken verstehen und Verantwortung übernehmen


Datum/Zeit
23. Oktober 2024
10:00 - 12:00


Die KI-Entwicklung verzeichnet gegenwärtig große Fortschritte, die sich in immer mehr Lebens- und Arbeitsbereiche auswirken. Neben neuen Funktions- und Anwendungsmöglichkeiten, vor allem durch maschinelles Lernen, rücken dabei zunehmend auch kritische Aspekte und ethische Herausforderungen in den Fokus.

In diesem Webinar erhalten Sie einen Überblick über ethische Fragen und Risiken, die im Zusammenhang mit KI für Unternehmen relevant sind und diskutiert werden. Es werden Leitlinien und Werte vorgestellt, die Unternehmen dabei unterstützen, einen verantwortungsbewussten Umgang mit KI zu gewährleisten. Gemeinsam mit anderen Teilnehmenden setzen Sie sich mit den ethischen Herausforderungen bei der Implementierung und Nutzung einer KI auseinander und wenden die vorgestellten Leitlinien als Orientierungshilfe auf ein konkretes Beispiel an.

Bringen Sie gerne eigene Beispiele und Fragen mit, die Sie interessieren oder die Ihnen in Ihrem Unternehmen im Zusammenhang mit KI bereits begegnet sind.

Unsere Inhalte

  • Wahrnehmung von KI und Ethik in der medialen Öffentlichkeit
  • Basics zu Ethik und Moral
  • Relevanz von Ethik in Unternehmen: Corporate Digital Responsibility (CDR)
  • Prinzipien und Leitlinien für KI-Anwendungen im Unternehmen
  • „Ethik-Kompass“: Praktische Methode zur ethischen Gestaltung und Umsetzung von KI


Ihre Vorteile

  • Sie verstehen die Bedeutung von Ethik im Zusammenhang mit KI.
  • Für die Implementierung und Nutzung einer KI im Unternehmen lernen Sie ethische Grundsätze und Leitlinien als Orientierungsrahmen kennen.
  • Sie setzen sich mit konkreten Anwendungsmöglichkeiten ethischer Werte in der KI-Entwicklung und Nutzung auseinander.
  • Sie tauschen sich mit Teilnehmenden aus und diskutieren eigene Erfahrungen.

Die Veranstaltung findet statt in Kooperation mit dem Mittelstand-Digital Zentrum Hannover.

Wir freuen uns auf Sie!

Anmelden

Tickets

Registrierungsinformationen