close

AlgorithmWatch ist eine gemeinnützige Nichtregierungsorganisation in Berlin und Zürich. Wir setzen uns dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit stärken, statt sie zu schwächen.

Blog

17. April 2026

#bigtech #eu #klima

Kopieren, Einfügen, Regieren: Wie Microsoft der EU-Kommission Gesetze diktierte, um den Energieverbrauch von Rechenzentren geheim zu halten

Die EU-Gesetzgebung zu Rechenzentren erlaubt es Unternehmen, Verbrauchsinformationen über Rechenzentren unter Verschluss zu halten. Untersuchungen von Corporate and Europe Observatory und AlgorithmWatch zeigen, dass die Kommission einen von Microsoft und der Lobbygruppe Digital Europe vorgeschlagenen Änderungsantrag schlicht kopiert und ins Gesetz eingefügt hat. Das Ziel: NGOs daran zu hindern, Informationen über energieintensive Rechenzentren zu erhalten. Die Recherche wurden nun von Investigate Europe veröffentlicht.

Nahaufnahme einer schwarzen Computertastatur mit den drei Tasten X, C und V im Vordergrund. Unterhalb der Tasten sind die zugehörigen Funktionen als Beschriftung zu lesen: „Cut" (Ausschneiden), „Copy" (Kopieren) und „Paste" (Einfügen). Die Tastatur weist sichtbare Gebrauchsspuren auf.

Stellungnahme zur geplanten Ausweitung digitaler Ermittlungsbefugnisse

AlgorithmWatch nimmt Stellung zu den Gesetzesentwürfen des Innenministeriums, des Ministeriums für Justiz und Verbraucherschutz und des Finanzministeriums. Sie sehen die Ausweitung der Ermittlungsbefugnisse für Strafverfolgungsbehörden und für das Bundesamt für Migration und Flüchtlinge vor.

Image
Photo by Mohammed Ajwad on Unsplash

Publikation

14. Januar 2026

Verantwortungsvolle Nutzung von generativer KI: AlgorithmWatch schlägt diese Richtlinien vor

Ob ChatGPT, Claude oder Gemini, Copilot oder Perplexity – generative KI wirft massive Probleme auf: Viele Ergebnisse sind fehlerhaft und politisch problematisch, der Verbrauch von Energie und Wasser ist enorm. Zugleich sind sie aus dem Alltag nicht mehr wegzudenken. AlgorithmWatch hat eine Richtlinie entwickelt, die dabei hilft, generative KI verantwortungsvoll zu verwenden.

A collage that merges circuit board patterns with textile motifs in a grid-like background of alternating black, grey, and white. Two hand-drawn arms are on each side of the image, positioned as if gently pulling on thin, white strings that cross the image diagonally. The hands appear soft and somewhat translucent, contrasting with the rigid lines of the circuit board patterns behind them. The strings are woven through both the hands and the background, symbolising the connection between traditional weaving and modern technology. The overall colour palette features muted earth tones, including browns, beiges, and grays, creating a sense of both history and continuity between the natural and technological worlds.

Sexualisierte Deepfakes auf X: Was wir dagegen tun und was die EU tun sollte

Elon Musks Chatbot „Grok“ erzeugt auf der Plattform X Bilder echter Menschen in Bikinis ohne deren Zustimmung, darunter auch Kinder. Das Problem dieser sexualisierten Darstellungen durch KI geht jedoch weit über X hinaus, wie unsere Untersuchungen zeigen. X selbst hat unsere Forschungen jedoch blockiert. Die EU-Kommission muss viel entschlossener vorgehen, um Menschen vor dieser Art von Gewalt zu schützen.

The collage shows 4 archival images of women. In these of the images, the women are nude. There is also one portrait of a woman with yellow shapes and bounding boxes on her face.

Blog

13. Mai 2025

Meldeformular

Algorithmische Diskriminierung melden!

Wenn wir online einen Kredit beantragen oder uns um eine Wohnung oder auf einen Job bewerben, verarbeiten Unternehmen unsere Daten immer häufiger mit automatisierten Entscheidungssystemen. Die Entscheidungen solcher Systeme wirken sich auf unser Leben aus. Der Haken an der Sache ist nur, dass die Systeme nicht neutral sind und Vorurteile über Menschen reproduzieren können, die in der Gesellschaft verbreitet sind. Was können wir tun, damit undurchsichtige automatisierte Systeme keine Menschen benachteiligen? Wir müssen algorithmische Diskriminierung sichtbar machen, und du kannst uns dabei helfen!

Kleines Computer-Icon im Pixel-Style

4. September 2025

Lasst uns sexualisierende Deepfakes gemeinsam stoppen!

Image

Deine Fördermitgliedschaft

Setze dich dafür ein, dass Algorithmen und Künstliche Intelligenz Gerechtigkeit, Demokratie und Nachhaltigkeit stärken, statt sie zu schwächen. Werde Fördermitglied bei AlgorithmWatch – schon ab 5 € im Monat.

Image

Blog

Aktuelle Veranstaltungen, Kampagnen und Neuigkeiten über unser Team – hier finden Sie die Updates von AlgorithmWatch. Zum Blog

Image

15. April 2026

Was vor sexualisierter Gewalt im digitalen Raum wirklich schützen kann

Junge Frau sitzt am Laptop, stützt den Kopf mit den Händen und sieht gestresst auf den Bildschirm; im Vordergrund zwei rote Feuerwehrschläuche, aus denen Textzeilen wie Lichtkegel auf die Szene strahlen.

9. April 2026

Was bedeutet es für die Demokratie, wenn Menschen in Politik und Verwaltung zulassen, dass KI ihre Entscheidungen beeinflusst?

Image

8. April 2026

Klimaschutz statt KI-Wahn. Reiche und Merz – kein Einknicken vor Google & Co!

Stories

Wie beeinflussen automatische Entscheidungssysteme unser aller Alltag? Wo werden sie konkret eingesetzt und was läuft dabei schief? Unsere journalistischen Recherchen zu aktuellen Fälle und Fehlern automatischer Entscheidungssysteme. Zu unseren Stories

Image

17. April 2026

Wie “existenzielle Gefahren” zur erfolgreichsten Strategie der KI-Industrie wurden

Members of the Armed Forces Parliamentary Scheme taking part in a Wargaming exercise.

2. April 2026

Wo die Armee keine KI einsetzt

Image

20. März 2026

Mehr Sicherheitsprobleme dank KI?

Positionen

Lesen Sie unsere Stellungnahmen zu laufenden politischen Entwicklungen und Regulierungsprozessen rund um automatisierte Entscheidungsprozesse. Unsere Positionen

„A Dream Deterred”. Ein Migrant wird an einem Grenzübergang mit massiver Überwachung konfrontiert und an seine ungewisse Zukunft erinnert. Aktivist*innen setzen sich gegen diese Überwachungssysteme ein.

24. Februar 2026

Advocacy-Briefing zur Verteidigung der Rechte von Geflüchteten, Asylsuchenden und Migrant*innen im digitalen Zeitalter

Flag through frosty glass

14. Januar 2026

2026: Das Jahr, in dem KI-Politik endlich am Gemeinwohl ausgerichtet werden sollte

Grafik mit EU-Flagge und Deutschland-Umriss im Hintergrund, im Vordergrund gestapelte Dokumente in einem Umschlag

9. Oktober 2025

Stellungnahme zur nationalen Durchführung der KI-Verordnung

Projekte

Ob Nachhaltigkeit, COVID-19, Social-Media-Plattformen oder Arbeit - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und Sie können mitmachen!
Projekte ansehen

Image

28. August 2025

Just Hiring! So vermeiden wir Diskriminierung durch Algorithmen in Einstellungsverfahren

Mockup eines Smartphones, auf dem die "Demokratie leben!"-Website geöffnet ist

21. Januar 2025

Zukunft D

Image

5. Oktober 2023

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Publikationen

Hintergrundberichte, Analysen und Arbeitspapiere - gemeinsam mit anderen Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen. Zu unseren Publikationen

Image

27. Oktober 2025

Mehrheit besorgt über Energie- und Wasserverbrauch von Rechenzentren

Mockup einer aufgeschlagene Broschüre des technischen Gutachtens 'Braucht die Polizei eine Datenbank zum biometrischen Abgleich?'.

15. Oktober 2025

Braucht die Polizei eine Datenbank zum biometrischen Abgleich?

Die Illustration zeigt die KI-Liferkette anhand von 5 Stationen. Rohstoff-Abbau, Hardware-Erstellung, Training von Modellen, Systemnutzung und Entsorgung.

6. August 2025

Die Umweltkosten der KI-Lieferkette