Radikalisiert der Empfehlungsalgorithmus von Youtube die Zuschauer? Eine interdisziplinare Untersuchung verneint und schlägt vor, nach neuen Gründen zu suchen.
Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.
Algorithmen funktionierten wie Schubladen, beschreibt die Politikwissenschaftlerin Lorena Jaume-Palasí den Grund, warum zum Beispiel Seifenspender nicht auf dunkle Haut reagieren. Sie beruhten auf Standards, die rassistisch sein könnten. Die Technologie sei für Diskriminierung anfällig.
Firmen, die Mitarbeiter mit "People Analytics"-Systemen durchleuchten, handeln oft rechtswidrig, hat AlgorithmWatch in einem Forschungsprojekt herausgefunden.
Sarah Spiekermann, Professorin für Wirtschaftsinformatik in Wien, will nicht den Maschinen die Moral beibringen, sondern Ingenieur*innen und Unternehmen. Wir sprachen mit ihr darüber, wie man ethische Standards für Algorithmen festlegt und warum diejenigen, die Maschinen und Programme entwickeln, sich so selten verantwortlich fühlen.
Vom Analysten zum Aktivisten: Roger McNamee hat an Facebook gut verdient. Nun fordert er eine radikale Umkehr und ein Verbot von Amplifizierungs-Algorithmen.
Ist Software bald so schwierig zu verstehen, wie ihre Schöpfer? In der Science widmet sich jetzt ein Artikel dem Vorwurf, KI funktioniere wie mittelalterliche Alchemie: Man wisse eigentlich nicht, was man tue, sondern drehe hier und da an ein paar Schrauben, bis ein Algorithmus das gewünschte Ergebnis erziele.
Beflügelt von der Aufbruchstimmung im sozialistischen Chile der Allende-Zeit entwickelt eine Gruppe von Ingenieuren ein Computernetzwerk, mit dem die Wirtschaft des gesamten Landes gesteuert werden soll – ein Experiment, das wie Science-Fiction anmutet: Projekt Cybersyn.
In der aktuellen Folge des Denkangebot Podcast geht es um das Thema „Diskriminierung durch Technik“. Im Rahmen der Recherche habe ich mit Prof. Dr. Katharina Zweig gesprochen. Sie lehrt an der TU Kaiserslautern, leitet dort das Algorithmic Accountability Lab, und ist eine der führenden Expertinnen in Deutschland, wenn es um die Bewertung der Risiken und Chancen des Einsatzes von künstlicher Intelligenz geht. Das komplette Interview gibt´s als kleines Extra in ganzer Länge für Euch.
Wir werden überwacht, das ist klar. Aber: Was passiert eigentlich mit all den Informationen über uns, nachdem sie eingesammelt wurden? Wer überwacht uns – und wie? Eine Suche.
Beim AMS soll künftig ein Computerprogramm Mitarbeiter bei Entscheidungen unterstützen. Die futurezone sprach mit AMS-Chef Johannes Kopf über den geplanten Algorithmus.
Der Wissenschaftliche Dienst des Bundestages erkennt "Bedarf" an einer Regulierung der Algorithmen. Aber schon die seltsame Fixierung auf den Begriff ist irreführend.
Find out more at: https://18.re-publica.com/node/24491 Der Algorithmus ist ein ständiger Gefährte in unserem Leben, erscheint jedoch nach wie vor als eine Bl...
Die Arbeitswelt digitalisiert sich immer stärker, das zeigt sich auch an den Programmen, die auf den Markt kommen. Sie sollen Firmen die Personalplanung erleichtern - doch es gibt viele Unwägbarkeiten.
Find out more at: https://18.re-publica.com/node/24751 When humans imagined robots and computers in the workplace, they have envisioned them as servants and ...
Find out more at: https://18.re-publica.com/node/21630 Algorithmen bestimmen, was wir tun. Wir bestimmen, was Algorithmen tun. Diese untrennbare Verflechtung...
Nicht nur Menschen, auch Algorithmen können diskriminieren. Die Schuld dafür trägt der Mensch. Entwickler und Anwender müssen sich jetzt der Verantwortung stellen. Zeit für eine Wertedebatte.
C. O'Neil. Carl Hanser Verlag, München, (2017)Deutsche Übers. zu: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.