Am 15. Dezember 2025 erscheint das neue White Paper „Solidarische Praxis entlang der Nutzung von KI verankern“, eine gemeinsame Veröffentlichung im Rahmen des Projekts Code of Conduct Demokratische KI.
Entwickelt in enger Zusammenarbeit mit Vertreter:innen aus 19 zivilgesellschaftlichen Organisationen, stellt es die zentrale Frage: Wie können wir den Einsatz von Künstlicher Intelligenz (KI) so gestalten, dass er unserem solidarischen Auftrag dient und nicht durch technologische Abhängigkeiten untergraben wird?
Solidarität bedeutet: Verantwortung teilen, Ressourcen gemeinsam steuern und dadurch Bedingungen schaffen, in denen vielfältige Bedarfe selbstbestimmt eingebracht werden können. Im Kontext von KI gerät dieser Anspruch schnell unter Druck: Denn wenige globale Unternehmen dominieren die Entwicklung großer KI-Modelle und die digitale Infrastruktur.
Für gemeinwohlorientierte Organisationen entsteht dadurch ein besonderes Dilemma: Sie stehen oft vor der Wahl, entweder Tools zu nutzen, deren Entstehungsbedingungen sie nicht kontrollieren können, mit Risiken wie schlechten Arbeitsbedingungen, hohem Energieverbrauch oder Diskriminierungspotenzialen. Oder sie verzichten auf die Nutzung und sind konfrontiert mit möglichen Konsequenzen: erschwerter Aufbau praktischer KI-Kompetenzen oder gegebenenfalls geringere Attraktivität für Fördergeber:innen.
Trotz dieser Spannungen kann die Zivilgesellschaft ihre Rolle als kritische Anwenderin und Gestalterin nutzen. Durch bewusste Entscheidungen lassen sich konkrete Handlungsräume öffnen: in der Auswahl von KI-Anwendungen, im Aufbau von Kompetenzen und in der Arbeit an gemeinsamen Standards. Das White Paper bietet dazu einen praxisnahen Leitfaden.
Solidarische Praxis entlang der vier Phasen des Nutzungszyklus

Teilnehmende beim Treffen in Köln. Foto: D64/Johann Lensing
Das White Paper beleuchtet den gesamten Nutzungszyklus von KI. Für jede Phase zeigen wir Lösungsansätze, Ressourcen und Reflexionsfragen auf.
1. Entwicklung: Viele Organisationen können keine eigenen KI-Anwendungen entwickeln. Umso wichtiger ist es, bei Entwicklungsprozessen möglichst breite Beteiligungsmöglichkeiten zu schaffen. Solidarität heißt hier: Die Bedürfnisse marginalisierter Gruppen mitdenken, Transparenz über Trainingsdaten schaffen und unsichtbare Arbeit wie Data Labeling anerkennen.
2. Auswahl: Die Auswahl von KI-Tools ist mehr als eine technische oder budgetäre Entscheidung: Wer auswählt, gestaltet mit. Welche Werte werden durch die Nutzung gestärkt oder untergraben? Welche Abhängigkeiten entstehen? Ein Gastbeitrag der Digitalen Gesellschaft e.V. beleuchtet, warum die Organisation sich angesichts von Risiken wie Biases und Diskriminierung entschieden hat, auf den Einsatz generativer KI zu verzichten.
3. Einsatz: KI-Systeme versprechen Entlastungen. Solidarität erfordert jedoch mehr: Die gewonnenen Freiräume müssen strategisch für menschzentrierte Arbeit, wie Beziehungsfürsorge oder Kreativarbeit, genutzt werden. Hierfür sind die kontinuierliche Befähigung der Mitarbeitenden und eine verantwortungsvolle Kontextualisierung der Einsatzbereiche notwendig.
Ein Gastbeitrag BAGSO zeigt, wie solidarisches Lernen funktioniert: In bundesweit 58 „KI-Lernorten“ unterstützen sich ältere Menschen gegenseitig beim Einstieg in KI-Technologien. Ein weiterer Gastbeitrag betont: Die Einbindung von Beschäftigten und ihrem Erfahrungswissen durch direkte Partizipation ist entscheidend.
4. Evaluation: Evaluation ist mehr als Erfolgsmessung. Es geht nicht nur darum, was funktioniert hat, sondern explizit darum, unbeabsichtigte Folgen und Fehler transparent zu machen. Das erfordert Mut: Öffentlich über Fehler zu sprechen, kann kurzfristig als Schwäche ausgelegt werden. Langfristig stärken aber gemeinsame Lern-Allianzen die Handlungsfähigkeit der gesamten Zivilgesellschaft.
Fazit: Gemeinsame Prinzipien für mehr Solidarität

Teilnehmende beim Projekttreffen zu Solidarität in Köln. Foto: D64/Johann Lensing
Das White Paper macht deutlich: Um den Umgang mit KI solidarischer zu gestalten, braucht es die Bündelung von Ressourcen, kollektives Lernen und gemeinsame Standards.
Die Publikation stellt daher auch den Erarbeitungsprozess des Code of Conduct Demokratische KI vor. Dieser wurde in einem partizipativen Prozess mit über 50 zivilgesellschaftlichen Organisationen erarbeitet und dient als gemeinsamer Orientierungsrahmen für alle, die KI gemeinwohlorientiert gestalten wollen. Eine Unterzeichnung ist weiterhin möglich!
Welche solidarischen Fragen beschäftigen Euch beim Einsatz von KI? Wo seht Ihr die größten Handlungsspielräume? Wir freuen uns auf Eure Erfahrungen, Fragen und Rückmeldungen an buero@d-64.org!