Belastende Nachrichten und traumatische Geschichten führen zu Stress und Angst – nicht nur bei Menschen, sondern auch bei KI-Sprachmodellen wie ChatGPT. Forschende von UZH und PUK zeigen nun, dass auch die Therapie quasi menschlich funktioniert: Denn ein erhöhtes «Angstniveau» von GPT-4 lässt sich mit achtsamkeitsbasierten Entspannungstechniken wieder «beruhigen».
Faktenwissen? Recherche? Das war gestern. Wer in Diskussionen glänzen will, greift auf das Wissen von Chatbots zurück. Warum das hochproblematisch und oftmals einfach falsch ist
KI werden immer krassere Fähigkeiten angedichtet – von Techkonzernen und der Wissenschaft. Ein genauer Blick zeigt: Von der Superintelligenz sind wir noch weit entfernt.
One of the use cases I thought was reasonable to expect from ChatGPT and Friends (LLMs) was summarising. It turns out I was wrong. What ChatGPT isn't summarising at all, it only looks like it. What it does is something else and that something else only becomes summarising in very specific circumstances.
GPT-4 ist da und steckt seit letzter Woche auch in ChatGPT. Ein Test einer US-Organisation zeigt, dass die KI im Vergleich zum Vorgänger offenbar anfälliger für Falschinformationen ist.
Die Bürgerrechtsorganisation Noyb hat wegen Datenschutzbedenken eine Beschwerde gegen OpenAI eingelegt und fordert eine DSGVO-konforme Datenverarbeitung.
Deutsche beschäftigen sich nur oberflächlich und undifferenziert mit Künstlicher Intelligenz, hat eine aktuelle Studie von Jan Schoenmakers Datenanalysefirma Hase & Igel ergeben. Gleichzeitig macht die Wirtschaft sich hierzulande immer abhängiger von Technologien aus dem Ausland, die es weder beherrscht noch versteht. Fatal, findet Schoenmakers.
„Künstliche Intelligenz“ verändert alles und könnte uns vernichten – diese Erzählung zieht gerade Teile der Öffentlichkeit in ihren Bann. Aber der aktuelle KI-Hype ist eine inszenierte Täuschung, die vor allem Geld bringen soll. Ein Kommentar.
Beim Umgang mit KI geht es nicht nur um technisches Verständnis, sondern vor allem um den Einfluss der Technologie auf unser Zusammenleben. Ein Gespräch über Ansätze in der außerschulischen Bildung.
Der Digitalisierungsminister kündigt den Einsatz von ChatGPT an. Die Landesdatenschutzbeauftragte will mit ihm nun Datenschutz- und IT-Sicherheitsfragen klären.
Firmen wie Open AI folgten einem radikal libertären Denken, das sämtliche politischen und sozialen Fragen ignoriere, sagt der Philosoph und Sprachforscher Hannes Bajohr. Die Diskussion darüber, welchen gesellschaftlichen Visionen KI-Modelle folgen, dürften wir ihnen auf keinen Fall überlassen.
Sprachmodelle prägen künftig die öffentliche Debatte mit – und machen sich damit am zentralen Ort der Politik zu schaffen. Ihre Vorurteile und Schwächen könnten auf die Demokratie selbst durchschlagen.
William Eden forecasts an AI winter. He argues that AI systems (1) are too unreliable and too inscrutable, (2) won’t get that much better (mostly due to hardware limitations) and/or (3) won’t be that profitable.
Wie funktionieren Systeme wie ChatGPT? Sind sie wirklich „intelligent“? Was passiert, wenn sie großflächig zum Einsatz kommen? Was hätte das für Auswirkungen auf Bibliotheken?