In seltener Einmütigkeit lehnen Digitalverbände und Bürgerrechtsgruppen das von Heiko Maas geplante „Netzwerkdurchsetzungsgesetz“ ab. Es lege die Meinungsfreiheit in die Hände privater Internetkonzerne und fördere Zensur. Aber haben Online-Plattformen, die sich zu Medienkonzernen entwickeln, ein Sonderrecht auf organisierte Verantwortungslosigkeit?
Algorithmen bestimmen immer mehr unser Leben. Warum Computer nicht alles wissen und wir sie kontrollieren müssen, erklären zwei Expertinnen der Initiative Algorithm Watch.
Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.
Algorithmen funktionierten wie Schubladen, beschreibt die Politikwissenschaftlerin Lorena Jaume-Palasí den Grund, warum zum Beispiel Seifenspender nicht auf dunkle Haut reagieren. Sie beruhten auf Standards, die rassistisch sein könnten. Die Technologie sei für Diskriminierung anfällig.
Sarah Spiekermann, Professorin für Wirtschaftsinformatik in Wien, will nicht den Maschinen die Moral beibringen, sondern Ingenieur*innen und Unternehmen. Wir sprachen mit ihr darüber, wie man ethische Standards für Algorithmen festlegt und warum diejenigen, die Maschinen und Programme entwickeln, sich so selten verantwortlich fühlen.
Ist Software bald so schwierig zu verstehen, wie ihre Schöpfer? In der Science widmet sich jetzt ein Artikel dem Vorwurf, KI funktioniere wie mittelalterliche Alchemie: Man wisse eigentlich nicht, was man tue, sondern drehe hier und da an ein paar Schrauben, bis ein Algorithmus das gewünschte Ergebnis erziele.
Vom Analysten zum Aktivisten: Roger McNamee hat an Facebook gut verdient. Nun fordert er eine radikale Umkehr und ein Verbot von Amplifizierungs-Algorithmen.
Firmen, die Mitarbeiter mit "People Analytics"-Systemen durchleuchten, handeln oft rechtswidrig, hat AlgorithmWatch in einem Forschungsprojekt herausgefunden.
In der aktuellen Folge des Denkangebot Podcast geht es um das Thema „Diskriminierung durch Technik“. Im Rahmen der Recherche habe ich mit Prof. Dr. Katharina Zweig gesprochen. Sie lehrt an der TU Kaiserslautern, leitet dort das Algorithmic Accountability Lab, und ist eine der führenden Expertinnen in Deutschland, wenn es um die Bewertung der Risiken und Chancen des Einsatzes von künstlicher Intelligenz geht. Das komplette Interview gibt´s als kleines Extra in ganzer Länge für Euch.
Beflügelt von der Aufbruchstimmung im sozialistischen Chile der Allende-Zeit entwickelt eine Gruppe von Ingenieuren ein Computernetzwerk, mit dem die Wirtschaft des gesamten Landes gesteuert werden soll – ein Experiment, das wie Science-Fiction anmutet: Projekt Cybersyn.
Wir werden überwacht, das ist klar. Aber: Was passiert eigentlich mit all den Informationen über uns, nachdem sie eingesammelt wurden? Wer überwacht uns – und wie? Eine Suche.
Find out more at: https://18.re-publica.com/node/24751 When humans imagined robots and computers in the workplace, they have envisioned them as servants and ...
Find out more at: https://18.re-publica.com/node/21630 Algorithmen bestimmen, was wir tun. Wir bestimmen, was Algorithmen tun. Diese untrennbare Verflechtung...
Find out more at: https://18.re-publica.com/node/24491 Der Algorithmus ist ein ständiger Gefährte in unserem Leben, erscheint jedoch nach wie vor als eine Bl...
Die Arbeitswelt digitalisiert sich immer stärker, das zeigt sich auch an den Programmen, die auf den Markt kommen. Sie sollen Firmen die Personalplanung erleichtern - doch es gibt viele Unwägbarkeiten.
Nicht nur Menschen, auch Algorithmen können diskriminieren. Die Schuld dafür trägt der Mensch. Entwickler und Anwender müssen sich jetzt der Verantwortung stellen. Zeit für eine Wertedebatte.
Die Lieferfirmen geben ihren Mitarbeitern gerne das Gefühl, unabhängig und frei zu sein. Durch permanente Überwachung und über Anreizsysteme werden jedoch die Fahrer:innen diszipliniert und interne Konkurrenz geschürt. Wissenschaftlerinnen haben das Geschäftsmodell jetzt untersucht.
C. O'Neil. Carl Hanser Verlag, München, (2017)Deutsche Übers. zu: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.