Algorithmen bestimmen immer mehr unser Leben. Warum Computer nicht alles wissen und wir sie kontrollieren müssen, erklären zwei Expertinnen der Initiative Algorithm Watch.
In seltener Einmütigkeit lehnen Digitalverbände und Bürgerrechtsgruppen das von Heiko Maas geplante „Netzwerkdurchsetzungsgesetz“ ab. Es lege die Meinungsfreiheit in die Hände privater Internetkonzerne und fördere Zensur. Aber haben Online-Plattformen, die sich zu Medienkonzernen entwickeln, ein Sonderrecht auf organisierte Verantwortungslosigkeit?
Algorithmen sind längst überall. Sie beeinflussen unsere Medienwahrnehmung, kennen unsere Vorlieben und empfehlen uns Nachrichten, Bücher oder Videos. Sie informieren uns über Wichtiges und Banales. Sie lenken unsere Aufmerksamkeit, unser Kaufverhalten und sogar unsere Autos.
Welche Rolle spielen Algorithmen im Internet für die öffentliche Meinungsbildung? Die Informatikerin Katharina Zweig setzt sich seit Jahren mit den Wirkungen und gesellschaftlichen Nebenwirkungen von Algorithmen auseinander. Zurzeit erforscht sie im Rahmen des von Landesmedienanstalten finanzierten Projektes #Datenspende unter anderem den Google-Algorithmus.
Algorithmen können Vorurteile bestätigen und Menschen diskriminieren, sagt Matthias Spielkamp, der Gründer und Geschäftsführer von AlgorithmWatch. "Die Schuld dafür der Technik zu geben, wäre aber grundfalsch". Menschen entwickelten diese Systeme und müssten auch dafür sorgen, dass sie gerecht funktionieren. Deshalb seien Aufsichtsinstitutionen nötig, "die sicherstellen, dass Algorithmen unseren gesellschaftlichen Zusammenhalt nicht gefährden, sondern ihn befördern". Die Entwicklung von Algorithmen einfach nur transparenter zu machen, reiche dabei nicht aus. "Wenn man weiß, wie ein diskriminierendes System funktioniert, hat man noch nichts gewonnen", meint Matthias Spielkamp. Die Diskriminierung müsse dann auch beendet werden.
ines der Schwerpunktthemen der diesjährigen re:publica wird der Umgang mit und die demokratische Gestaltung von Künstlicher Intelligenz und Algorithmischen Entscheidungssystemen sein. Wir bieten einen Überblick durch das umfangreiche Programm.
Künstliche Intelligenz soll den Menschen dienen und Grundrechte respektieren. Das fordert eine Expertengruppe der EU-Kommission in ihren nun veröffentlichten Leitlinien für die Technologie. Unverrückbare ethische Prinzipien finden sich darin jedoch nicht mehr – Vertreterinnen der Industrie im Gremium haben sie erfolgreich gestrichen.
Computer können heute Krankheiten diagnostizieren, Verbraucher am Servicetelefon beraten oder ganze Fabriken kontrollieren. Das funktioniert durch den Einsatz von Künstlicher Intelligenz. KI wird die Arbeitswelt stark verändern. // Von Katja Scherer /
Die EU-Kommission hat erstmals ein Gesetz zur Regulierung von automatisierten Entscheidungssystemen vorgelegt. "Massenüberwachung" durch KI soll damit verboten werden, biometrische Echtzeit-Überwachung soll in einigen Fällen aber erlaubt bleiben.
Am 3.05., 17:30, Stelle ich unser neues Projekt mit der Hans-Böckler-Stiftung auf der re:publica vor und diskutiere mit Matthias Spielkamp und Katharina Simbeck, moderiert von Melanie Stein. Unter anderem zeige ich, wie man den Analysealgorithmus von IBM Watson austricksen kann.
Heute übergibt der Datenethikkommission (DEK) ihre Empfehlungen an die Bundesregierungen. Die Kommission war 2018 von der Bundesregierung einberufen worden und umfasst 16 Mitglieder: Hauptsächlich besetzt mit Wissenschaftler*innen, aber auch mit Vertreter*innen aus der Verwaltung, dem Datenschutz und der Industrie.
Das parlamentarische Büro für Technikfolgen-Abschätzung warnt angesichts künstlich intelligenter Personalauswahl vor ethischen Risiken und Rechtslücken.
Radikalisiert der Empfehlungsalgorithmus von Youtube die Zuschauer? Eine interdisziplinare Untersuchung verneint und schlägt vor, nach neuen Gründen zu suchen.
Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.
Ist Software bald so schwierig zu verstehen, wie ihre Schöpfer? In der Science widmet sich jetzt ein Artikel dem Vorwurf, KI funktioniere wie mittelalterliche Alchemie: Man wisse eigentlich nicht, was man tue, sondern drehe hier und da an ein paar Schrauben, bis ein Algorithmus das gewünschte Ergebnis erziele.
Sarah Spiekermann, Professorin für Wirtschaftsinformatik in Wien, will nicht den Maschinen die Moral beibringen, sondern Ingenieur*innen und Unternehmen. Wir sprachen mit ihr darüber, wie man ethische Standards für Algorithmen festlegt und warum diejenigen, die Maschinen und Programme entwickeln, sich so selten verantwortlich fühlen.
Firmen, die Mitarbeiter mit "People Analytics"-Systemen durchleuchten, handeln oft rechtswidrig, hat AlgorithmWatch in einem Forschungsprojekt herausgefunden.
Algorithmen funktionierten wie Schubladen, beschreibt die Politikwissenschaftlerin Lorena Jaume-Palasí den Grund, warum zum Beispiel Seifenspender nicht auf dunkle Haut reagieren. Sie beruhten auf Standards, die rassistisch sein könnten. Die Technologie sei für Diskriminierung anfällig.
Vom Analysten zum Aktivisten: Roger McNamee hat an Facebook gut verdient. Nun fordert er eine radikale Umkehr und ein Verbot von Amplifizierungs-Algorithmen.
In der aktuellen Folge des Denkangebot Podcast geht es um das Thema „Diskriminierung durch Technik“. Im Rahmen der Recherche habe ich mit Prof. Dr. Katharina Zweig gesprochen. Sie lehrt an der TU Kaiserslautern, leitet dort das Algorithmic Accountability Lab, und ist eine der führenden Expertinnen in Deutschland, wenn es um die Bewertung der Risiken und Chancen des Einsatzes von künstlicher Intelligenz geht. Das komplette Interview gibt´s als kleines Extra in ganzer Länge für Euch.
Beflügelt von der Aufbruchstimmung im sozialistischen Chile der Allende-Zeit entwickelt eine Gruppe von Ingenieuren ein Computernetzwerk, mit dem die Wirtschaft des gesamten Landes gesteuert werden soll – ein Experiment, das wie Science-Fiction anmutet: Projekt Cybersyn.
Der Wissenschaftliche Dienst des Bundestages erkennt "Bedarf" an einer Regulierung der Algorithmen. Aber schon die seltsame Fixierung auf den Begriff ist irreführend.
Wir werden überwacht, das ist klar. Aber: Was passiert eigentlich mit all den Informationen über uns, nachdem sie eingesammelt wurden? Wer überwacht uns – und wie? Eine Suche.
Nicht nur Menschen, auch Algorithmen können diskriminieren. Die Schuld dafür trägt der Mensch. Entwickler und Anwender müssen sich jetzt der Verantwortung stellen. Zeit für eine Wertedebatte.
Beim AMS soll künftig ein Computerprogramm Mitarbeiter bei Entscheidungen unterstützen. Die futurezone sprach mit AMS-Chef Johannes Kopf über den geplanten Algorithmus.
Find out more at: https://18.re-publica.com/node/21630 Algorithmen bestimmen, was wir tun. Wir bestimmen, was Algorithmen tun. Diese untrennbare Verflechtung...
Find out more at: https://18.re-publica.com/node/24751 When humans imagined robots and computers in the workplace, they have envisioned them as servants and ...
Find out more at: https://18.re-publica.com/node/24491 Der Algorithmus ist ein ständiger Gefährte in unserem Leben, erscheint jedoch nach wie vor als eine Bl...
Die Arbeitswelt digitalisiert sich immer stärker, das zeigt sich auch an den Programmen, die auf den Markt kommen. Sie sollen Firmen die Personalplanung erleichtern - doch es gibt viele Unwägbarkeiten.
Die Lieferfirmen geben ihren Mitarbeitern gerne das Gefühl, unabhängig und frei zu sein. Durch permanente Überwachung und über Anreizsysteme werden jedoch die Fahrer:innen diszipliniert und interne Konkurrenz geschürt. Wissenschaftlerinnen haben das Geschäftsmodell jetzt untersucht.
Gesichtserkennung versagt auffallend oft etwa bei schwarzen Frauen – und das kann bestehende Vorurteile festigen, kritisiert eine Computerwissenschaftlerin.
Ein offener Brief fordert Konzernchef Jeff Bezos dazu auf, die Rechte seiner Beschäftigten zu achten. Zugleich wird bekannt, dass der Konzern mit Software mögliche Gewerkschaftsbildung überwacht.
Der digitale Kapitalismus hat einen neuen Gesellschaftsvertrag etabliert: Daten gegen Bequemlichkeit. KI spielt für dessen Zukunft eine zentrale Rolle.
In Großbritannien fürchten die Schulabsolvent:innen des ganzen Jahrgangs 2020 um ihre universitäre und berufliche Zukunft. Erst gab es keine Schule und Prüfungen - und jetzt hat auch noch ein eingesetzter Algorithmus die Noten vieler herabgestuft. Nach wachsenden Protesten wurde die Benotung jetzt z
Beflügelt von der Aufbruchstimmung im sozialistischen Chile der Allende-Zeit entwickelt eine Gruppe von Ingenieuren ein Computernetzwerk, mit dem die Wirtschaft des gesamten Landes gesteuert werden soll – ein Experiment, das wie Science-Fiction anmutet: Projekt Cybersyn.
Viele Entscheidungen, die unseren Alltag beeinflussen, treffen bereits Algorithmen. AlgorithmWatch will Automated Decision Making (ADM) transparent machen.
Sie personalisieren Inhalte, berechnen Routen und Preise: Algorithmen sind Teil des Alltags. Sie stecken etwa in Software, sind schwer greifbar und werden in immer mehr Bereichen eingesetzt.
Die kurzfristigen Auswirkungen des technologischen Wandels werden häufig überschätzt, die langfristigen unterschätzt. Digitalisierung muss gemeinsam mit den ArbeitnehmerInnen gestaltet werden und darf sich nicht allein auf die Technik beschränken.
C. O'Neil. Carl Hanser Verlag, München, (2017)Deutsche Übers. zu: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.
A. Keiner. Algorithmisierung und Autonomie im Diskurs : Perspektiven und Reflexionen auf die Logiken automatisierter Maschinen, FernUniversität in Hagen. Lehrgebiet Bildungstheorie und Medienpädagogik, Hagen, (июля 2020)