In der Forschung zum maschinellen Lernen (ML) werde argumentiert, dass Modelle, die auf unvollständigen oder verzerrten Datensätzen trainierten, zu diskriminierenden Ergebnissen führen könnten. In diesem Kommentar wird vorgeschlagen, den Forschungsschwerpunkt über die auf Voreingenommenheit ausgerichteten Rahmen hinaus zu verlagern, indem eine machtbewusste Perspektive eingenommen werde. Dies bedeute, dass historische Ungleichheiten, Arbeitsbedingungen und erkenntnistheoretische Standpunkte, die den Daten eingeschrieben seien, Berücksichtigung fänden.
%0 Journal Article
%1 noauthororeditor
%A Miceli, Milagros
%A Posada, Julian
%A Yang, Tianling
%D Januar 2022
%E Institut, Weizenbaum
%K Künstliche_Intelligenz
%T Studying Up Machine Learning Data: Why Talk About Bias When We Mean Power?
%U https://dl.acm.org/doi/10.1145/3492853
%X In der Forschung zum maschinellen Lernen (ML) werde argumentiert, dass Modelle, die auf unvollständigen oder verzerrten Datensätzen trainierten, zu diskriminierenden Ergebnissen führen könnten. In diesem Kommentar wird vorgeschlagen, den Forschungsschwerpunkt über die auf Voreingenommenheit ausgerichteten Rahmen hinaus zu verlagern, indem eine machtbewusste Perspektive eingenommen werde. Dies bedeute, dass historische Ungleichheiten, Arbeitsbedingungen und erkenntnistheoretische Standpunkte, die den Daten eingeschrieben seien, Berücksichtigung fänden.
@article{noauthororeditor,
abstract = {In der Forschung zum maschinellen Lernen (ML) werde argumentiert, dass Modelle, die auf unvollständigen oder verzerrten Datensätzen trainierten, zu diskriminierenden Ergebnissen führen könnten. In diesem Kommentar wird vorgeschlagen, den Forschungsschwerpunkt über die auf Voreingenommenheit ausgerichteten Rahmen hinaus zu verlagern, indem eine machtbewusste Perspektive eingenommen werde. Dies bedeute, dass historische Ungleichheiten, Arbeitsbedingungen und erkenntnistheoretische Standpunkte, die den Daten eingeschrieben seien, Berücksichtigung fänden. },
added-at = {2022-12-01T15:31:12.000+0100},
author = {Miceli, Milagros and Posada, Julian and Yang, Tianling},
biburl = {https://www.bibsonomy.org/bibtex/275fdb2ba38b372be72aa8eab64f0872a/zukunftarbeit},
editor = {Institut, Weizenbaum},
interhash = {4106b111fb6699281b411f02ee305c8e},
intrahash = {75fdb2ba38b372be72aa8eab64f0872a},
keywords = {Künstliche_Intelligenz},
timestamp = {2022-12-01T15:31:12.000+0100},
title = {Studying Up Machine Learning Data: Why Talk About Bias When We Mean Power?},
url = {https://dl.acm.org/doi/10.1145/3492853},
year = {Januar 2022}
}