Abstract
Entscheidungen von Computerprogrammen erschienen faktenbasiert, objektiv und neutral. Tatsächlich aber treffe Künstliche Intelligenz (KI) immer wieder problematische oder diskriminierende Entscheidungen – etwa wenn bei der Bestimmung der Rückfallwahrscheinlichkeit von Straftäter/innen Schwarze Menschen schlechtere Prognosen erhielten als weiße Menschen. Mitglieder der Plattform ‚Lernende Systeme‘ fordern unter anderem eine unabhängige Kontrollinstanz, um die Erklärbarkeit und Überprüfung von Algorithmen zu fördern. Das Whitepaper aus der Arbeitsgruppe Recht und Ethik analysiert die Ursachen und Formen von Diskriminierung und zeigt Lösungsansätze auf.
Users
Please
log in to take part in the discussion (add own reviews or comments).