Algorithmen sind längst überall. Sie beeinflussen unsere Medienwahrnehmung, kennen unsere Vorlieben und empfehlen uns Nachrichten, Bücher oder Videos. Sie informieren uns über Wichtiges und Banales. Sie lenken unsere Aufmerksamkeit, unser Kaufverhalten und sogar unsere Autos.
Algorithmen können Vorurteile bestätigen und Menschen diskriminieren, sagt Matthias Spielkamp, der Gründer und Geschäftsführer von AlgorithmWatch. "Die Schuld dafür der Technik zu geben, wäre aber grundfalsch". Menschen entwickelten diese Systeme und müssten auch dafür sorgen, dass sie gerecht funktionieren. Deshalb seien Aufsichtsinstitutionen nötig, "die sicherstellen, dass Algorithmen unseren gesellschaftlichen Zusammenhalt nicht gefährden, sondern ihn befördern". Die Entwicklung von Algorithmen einfach nur transparenter zu machen, reiche dabei nicht aus. "Wenn man weiß, wie ein diskriminierendes System funktioniert, hat man noch nichts gewonnen", meint Matthias Spielkamp. Die Diskriminierung müsse dann auch beendet werden.
In seiner wechselvollen Geschichte, die bis in die 1950er-Jahre zurückreicht, hat das Forschungsfeld der Künstlichen Intelligenz (KI) einige Auf- und Abschwünge erlebt. Mal durchlief die Technologie einen regelrechten Hype und Regierungen investierten Unsummen an Forschungsgeldern in die Entwicklung und Erforschung dieser Technologien, mal sank das Interesse der Öffentlichkeit und der Politik am Thema und Fördermittel wurden der KI-Forschung verweigert. Eine wesentliche Rolle hinter diesen Auf- und Abschwüngen spielten häufig überzogene Erwartungen, die in Enttäuschungen endeten.
In KI-Modellen könnten immer mehr Trainingsdaten verarbeitet werden, was die Monopolbildung unterstütze, warnt die New Yorker Praktikerin Sophie Searcy.
Ein EU-Dokument vergleicht das Maschinenlernen mit der Erfindung der Elektrizität. Insgesamt sollen 20 Milliarden Euro in Forschungen zu "KI made in Europe" fließen
Bilddateien so bearbeiten, dass künstliche Intelligenz sie auswerten kann - das ist eine der Aufgaben von sogenannten Klick-Arbeitern. Die meisten von ihnen stammen einer Studie zufolge aus dem krisengeplagten Venezuela.
Für vertrauenswürdige künstliche Intelligenz soll die EU künftig weltweit stehen. Aber ist es wünschenswert, immer mehr Entscheidungen Maschinen zu überlassen?
Eine sich rasant verändernde Arbeitswelt erfordert das Engagement vieler Akteure. Die Denkfabrik Digitale Arbeitsgesellschaft bringt sie ab sofort zusammen.
Die Ethik-Expertin Timnit Gebru arbeitet nicht mehr bei Google. Über ihren Abgang gibt es unterschiedliche Versionen. Eine Rolle spielt ein geplanter Aufsatz.
Die EU-Agentur für Grundrechte fordert in einem Bericht, potenziell diskriminierende Auswirkungen von KI besser zu erforschen und die Aufsicht zu stärken.
Die EU-Kommission hat erstmals ein Gesetz zur Regulierung von automatisierten Entscheidungssystemen vorgelegt. "Massenüberwachung" durch KI soll damit verboten werden, biometrische Echtzeit-Überwachung soll in einigen Fällen aber erlaubt bleiben.
Intelligente Verkehrslenkung, Ridesharing, Playlisten auf Streamingdiensten, Onlinedating- oder Jobsharing-Plattformen: Für viele von uns ist Künstliche Intelligenz (KI) ein fester Bestandteil unseres Alltags – ohne dass es uns bewusst ist.
Deutsche beschäftigen sich nur oberflächlich und undifferenziert mit Künstlicher Intelligenz, hat eine aktuelle Studie von Jan Schoenmakers Datenanalysefirma Hase & Igel ergeben. Gleichzeitig macht die Wirtschaft sich hierzulande immer abhängiger von Technologien aus dem Ausland, die es weder beherrscht noch versteht. Fatal, findet Schoenmakers.
Im schneller werdenden Nachrichtengeschäft unterstützen Algorithmen die Arbeit der Redakteure und suchen im Netz nach News, formulieren Texte. Kann die KI Journalisten völlig ersetzen?
Das parlamentarische Büro für Technikfolgen-Abschätzung warnt angesichts künstlich intelligenter Personalauswahl vor ethischen Risiken und Rechtslücken.
"Ein Computer ist kein Gehirn." Mike Cooley beklagte, dass technologische Errungenschaften ungleich eingesetzt werden und Menschen sich Erfindungen unterwerfen.
Computer können heute Krankheiten diagnostizieren, Verbraucher am Servicetelefon beraten oder ganze Fabriken kontrollieren. Das funktioniert durch den Einsatz von Künstlicher Intelligenz. KI wird die Arbeitswelt stark verändern. // Von Katja Scherer /
Wunder der Technik: Die neuste Version des Diensts Chat GPT liefert noch beeindruckendere Resultate als ihre Vorgänger. Wie lange noch, bis uns die Maschine erst die Arbeitsplätze und dann die Würde nimmt?
Menschen können sich bis zu 8000 verschiedene Gesichter merken und unterscheiden, weit mehr als jede KI-Software. Das überrascht, wenn man sich die Erfolgsmeldungen zur Künstlichen Intelligenz vor Augen führt. Was steckt also hinter dem Hype, und was ist Realität?
Künstliche Intelligenz soll den Menschen dienen und Grundrechte respektieren. Das fordert eine Expertengruppe der EU-Kommission in ihren nun veröffentlichten Leitlinien für die Technologie. Unverrückbare ethische Prinzipien finden sich darin jedoch nicht mehr – Vertreterinnen der Industrie im Gremium haben sie erfolgreich gestrichen.
Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.
In der "Hambacher Erklärung" haben die Datenschutzbeauftragten von Bund und Ländern sieben Anforderungen an Systeme der Künstlichen Intelligenz aufgestellt.
Bei der 97. Datenschutzkonferenz im Hambacher Schloss haben sich die Datenschutzaufsichtsbehörden des Bundes und der Länder mit einer Reihe wichtiger datenschutzrechtlicher Themen beschäftigt. Ein Fokus lag dabei auf dem Thema der künstlichen Intelligenz.
Sarah Spiekermann, Professorin für Wirtschaftsinformatik in Wien, will nicht den Maschinen die Moral beibringen, sondern Ingenieur*innen und Unternehmen. Wir sprachen mit ihr darüber, wie man ethische Standards für Algorithmen festlegt und warum diejenigen, die Maschinen und Programme entwickeln, sich so selten verantwortlich fühlen.
Algorithmen funktionierten wie Schubladen, beschreibt die Politikwissenschaftlerin Lorena Jaume-Palasí den Grund, warum zum Beispiel Seifenspender nicht auf dunkle Haut reagieren. Sie beruhten auf Standards, die rassistisch sein könnten. Die Technologie sei für Diskriminierung anfällig.
Mit Blick auf die Diskussionen um die Agrar-, Energie- oder Verkehrswende sind die Hoffnungen auf die Künstliche Intelligenz groß. Doch sie wird nur marginale Wissens- und Effizienzzuwächse ermöglichen, nicht aber der entscheidende Faktor der Transformation sein. Maschinelles Lernen kann nur begrenz
Auf der Leinwand geben Computer oft Code-Quatsch aus und rattern dramatisch. Manchmal bekleiden sie eine tragende Rolle oder trachten nach der Weltherrschaft.
Firmen wie Open AI folgten einem radikal libertären Denken, das sämtliche politischen und sozialen Fragen ignoriere, sagt der Philosoph und Sprachforscher Hannes Bajohr. Die Diskussion darüber, welchen gesellschaftlichen Visionen KI-Modelle folgen, dürften wir ihnen auf keinen Fall überlassen.
Das EU-Parlament hat sich auf ein Gesetz zur Regulierung von Künstlicher Intelligenz geeinigt. Es verbietet Anwendungen, die mit hohen Risiken für die Sicherheit verbunden sind - etwa Gesichtserkennung. Experten begrüßen die Entscheidung.
Beim Umgang mit KI geht es nicht nur um technisches Verständnis, sondern vor allem um den Einfluss der Technologie auf unser Zusammenleben. Ein Gespräch über Ansätze in der außerschulischen Bildung.
In der aktuellen Folge des Denkangebot Podcast geht es um das Thema „Diskriminierung durch Technik“. Im Rahmen der Recherche habe ich mit Prof. Dr. Katharina Zweig gesprochen. Sie lehrt an der TU Kaiserslautern, leitet dort das Algorithmic Accountability Lab, und ist eine der führenden Expertinnen in Deutschland, wenn es um die Bewertung der Risiken und Chancen des Einsatzes von künstlicher Intelligenz geht. Das komplette Interview gibt´s als kleines Extra in ganzer Länge für Euch.
Künstliche Intelligenz-Technologien, die ein hohes Missbrauchsrisiko bergen, das zu einer Aushöhlung der Grundrechte führen könnte, werden einer Reihe neuer Anforderungen unterworfen, teilte die Europäische Kommission am Mittwoch, den 19. Februar, mit.
Der neue Sammelband „Marx und die Roboter“ versucht die Digitalisierung der Arbeitswelt mit Karl Marx zu erklären. Was Schreibmaschinen, Foodora und e-Mails, die man spätnachts beantwortet, mit den marx’schen Theorien zu tun haben, erklärt Herausgeberin Sabine Nuss im Interview mit Mosaik-Redakteurin Teresa Petrik.
Ist Software bald so schwierig zu verstehen, wie ihre Schöpfer? In der Science widmet sich jetzt ein Artikel dem Vorwurf, KI funktioniere wie mittelalterliche Alchemie: Man wisse eigentlich nicht, was man tue, sondern drehe hier und da an ein paar Schrauben, bis ein Algorithmus das gewünschte Ergebnis erziele.
Um wenig Technologien gibt es einen so großen Hype: Künstliche Intelligenz übt eine unwiderstehliche Anziehungskraft auf Scharlatane aus. Wie viel "Fake AI" auf dem Markt ist, zeichnet ein neues Buch nach. Eine Rezension.
Der Ressourcenverbrauch von digitalen Technologien ist ein immens wichtiger Faktor, aber oftmals schwierig zu messen. Das sagt die Forscherin Anne Mollen im Gespräch mit iRights.info. Sie entwickelt Indikatoren für die Nachhaltigkeit von Künstlicher Intelligenz (KI).
Ein Jahr nach dem Hype um DALL-E und ChatGPT steht der Journalismus immer noch vor der Frage, wie eine gute Berichterstattung aussehen sollte. Der Journalist Marcus Anhäuser stellt im Gastbeitrag Kriterien als Recherchehilfe für den Redaktionsalltag vor.
GPT-4 ist da und steckt seit letzter Woche auch in ChatGPT. Ein Test einer US-Organisation zeigt, dass die KI im Vergleich zum Vorgänger offenbar anfälliger für Falschinformationen ist.
F. Folkerts, V. Schreck, S. Riazy, and K. Simbeck. 2019 IEEE International Conference on Humanized Computing and Communication (HCC), page 1-6. New York, IEEE, (September 2019)