Algorithmen können Vorurteile bestätigen und Menschen diskriminieren, sagt Matthias Spielkamp, der Gründer und Geschäftsführer von AlgorithmWatch. "Die Schuld dafür der Technik zu geben, wäre aber grundfalsch". Menschen entwickelten diese Systeme und müssten auch dafür sorgen, dass sie gerecht funktionieren. Deshalb seien Aufsichtsinstitutionen nötig, "die sicherstellen, dass Algorithmen unseren gesellschaftlichen Zusammenhalt nicht gefährden, sondern ihn befördern". Die Entwicklung von Algorithmen einfach nur transparenter zu machen, reiche dabei nicht aus. "Wenn man weiß, wie ein diskriminierendes System funktioniert, hat man noch nichts gewonnen", meint Matthias Spielkamp. Die Diskriminierung müsse dann auch beendet werden.
Die EU-Agentur für Grundrechte fordert in einem Bericht, potenziell diskriminierende Auswirkungen von KI besser zu erforschen und die Aufsicht zu stärken.
Computer können heute Krankheiten diagnostizieren, Verbraucher am Servicetelefon beraten oder ganze Fabriken kontrollieren. Das funktioniert durch den Einsatz von Künstlicher Intelligenz. KI wird die Arbeitswelt stark verändern. // Von Katja Scherer /
Für vertrauenswürdige künstliche Intelligenz soll die EU künftig weltweit stehen. Aber ist es wünschenswert, immer mehr Entscheidungen Maschinen zu überlassen?
In KI-Modellen könnten immer mehr Trainingsdaten verarbeitet werden, was die Monopolbildung unterstütze, warnt die New Yorker Praktikerin Sophie Searcy.
Das parlamentarische Büro für Technikfolgen-Abschätzung warnt angesichts künstlich intelligenter Personalauswahl vor ethischen Risiken und Rechtslücken.
Wunder der Technik: Die neuste Version des Diensts Chat GPT liefert noch beeindruckendere Resultate als ihre Vorgänger. Wie lange noch, bis uns die Maschine erst die Arbeitsplätze und dann die Würde nimmt?
Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.
Algorithmen funktionierten wie Schubladen, beschreibt die Politikwissenschaftlerin Lorena Jaume-Palasí den Grund, warum zum Beispiel Seifenspender nicht auf dunkle Haut reagieren. Sie beruhten auf Standards, die rassistisch sein könnten. Die Technologie sei für Diskriminierung anfällig.
Der Ressourcenverbrauch von digitalen Technologien ist ein immens wichtiger Faktor, aber oftmals schwierig zu messen. Das sagt die Forscherin Anne Mollen im Gespräch mit iRights.info. Sie entwickelt Indikatoren für die Nachhaltigkeit von Künstlicher Intelligenz (KI).
In der aktuellen Folge des Denkangebot Podcast geht es um das Thema „Diskriminierung durch Technik“. Im Rahmen der Recherche habe ich mit Prof. Dr. Katharina Zweig gesprochen. Sie lehrt an der TU Kaiserslautern, leitet dort das Algorithmic Accountability Lab, und ist eine der führenden Expertinnen in Deutschland, wenn es um die Bewertung der Risiken und Chancen des Einsatzes von künstlicher Intelligenz geht. Das komplette Interview gibt´s als kleines Extra in ganzer Länge für Euch.
Find out more at: https://18.re-publica.com/node/21630 Algorithmen bestimmen, was wir tun. Wir bestimmen, was Algorithmen tun. Diese untrennbare Verflechtung...
Beim AMS soll künftig ein Computerprogramm Mitarbeiter bei Entscheidungen unterstützen. Die futurezone sprach mit AMS-Chef Johannes Kopf über den geplanten Algorithmus.
Gesichtserkennung versagt auffallend oft etwa bei schwarzen Frauen – und das kann bestehende Vorurteile festigen, kritisiert eine Computerwissenschaftlerin.
Der Bewerbungsroboter von Amazon hat Frauen diskriminiert. Wie konnte das passieren? Und wie können Algorithmen geeignete Kandidaten für einen Job erkennen?
F. Folkerts, V. Schreck, S. Riazy, and K. Simbeck. 2019 IEEE International Conference on Humanized Computing and Communication (HCC), page 1-6. New York, IEEE, (September 2019)
V. Guijarro Santos. Wenn KI, dann feministisch: Impulse aus Wissenschaft und Aktivismus, netzforma* e.V. — Verein für feministische Netzpolitik, Berlin, (January 2021)