- Story
Aktennotizen in der Sozialen Arbeit: Zwischen Dokumentationspflicht und digitaler Realität
09.02.2026 Die Falldokumentation ist zentral in der Sozialen Arbeit – und aufwändig. Nicht selten greifen Fachkräfte dabei auf inoffizielle KI-Tools oder Apps zurück. Dies birgt einige Risiken, etwa beim Datenschutz. Welche Aspekte und Fragen müssen Fachkräfte und Organisationen klären, um von KI zu profitieren und gleichzeitig rechtskonform und im Sinne der Adressat*innen unterwegs zu sein?
Das Wichtigste in Kürze
-
Fachkräfte in der Sozialen Arbeit verbringen viel Zeit mit Dokumentation und greifen häufig auf nicht autorisierte KI-Tools wie ChatGPT zurück, was erhebliche Datenschutz-, rechtliche und arbeitsrechtliche Risiken birgt.
-
Eine lokal installierte, speziell für die Soziale Arbeit entwickelte KI kann Dokumentationsprozesse strukturieren, die Qualität sichern und Fachkräfte mental entlasten, ohne sensible Daten an externe Anbieter weiterzugeben.
-
Menschliche Kontrolle, Ethik und Organisation bleiben zentral: Endkontrolle durch Fachkräfte, klare ethische und rechtliche Regelungen, Transparenz gegenüber Klient*innen sowie organisatorische Anpassungen und Weiterbildungen sind unerlässlich.
In der Sozialen Arbeit nehmen Dokumentationsaufgaben immer mehr Raum ein. Fachkräfte verbringen einen erheblichen Teil ihrer Arbeitszeit mit der Abfassung von Aktennotizen, Berichten und der Falldokumentation. Diese Aufgaben sind nicht nur zeitintensiv, sondern auch rechtlich und fachlich von grosser Bedeutung. Sie dienen der Qualitätssicherung, der professionellen Kommunikation und der Rechenschaftspflicht gegenüber Adressat*innen sowie anderen Institutionen (Plafky et al., eingereicht; Lillis et al., 2020; Pascoe et al., 2024; MacAlister, 2024).
Allerdings zeichnet sich eine besorgniserregende Entwicklung ab: Immer mehr Fachkräfte greifen auf nicht autorisierte technische Lösungen zurück, um ihre Dokumentationsaufgaben zu bewältigen. Sie nutzen kommerzielle KI-Tools wie ChatGPT oder Diktier-Apps auf privaten Geräten – eine Praxis, die als «Shadow IT» bezeichnet wird (Plafky et al., 2025). Dies ist aus mehreren Gründen problematisch: Die Nutzung kommerzieller KI-Tools verstösst gegen zentrale Datenschutzbestimmungen, und zwar gegen die Verordnung zum Schweizer Datenschutzgesetz und gegen kantonale Regelungen.
Selbst bei Prompts, die mit anonymisierten Anfragen verschickt werden, besteht dieses Risiko, da vertrauliche Informationen durch kommerzielle Anbieter gespeichert und weiterverarbeitet werden können. Ohne etablierte Kontroll- und Sicherheitsstandards drohen den Einrichtungen und Fachkräften dabei nicht nur datenschutzrechtliche, sondern auch arbeitsrechtliche Konsequenzen.
Ein innovativer Lösungsansatz aus der Forschung
In unserem Projekt «Datenschutzkonforme automatisierte Aktennotizerstellung» mit der OST Ostschweizer Fachhochschule, haben wir eine datenschutzkonforme Alternative entwickelt. In einem Projekt wurde eine KI-Anwendung konzipiert, die speziell auf die Bedürfnisse der Sozialen Arbeit zugeschnitten ist (Plafky et al., 2025): Die entwickelte KI-Anwendung kombiniert Speech-to-Text und Large-Language-Model-Technologien in einer vollständig lokalen Installation. Weil die KI-Anwendung auf Dienstrechnern ohne externe Server- und Cloud-Anbindung integriert ist, sind die Daten maximal gesichert. Die Fachperson kann eine Spracheingabe nutzen, die KI wandelt sie in Text um und strukturiert die Inhalte. Die Fachkraft hat abschliessend die Möglichkeit, den Entwurf zu kontrollieren.
Das bringt einige Vorteile:
- Die Texte lassen sich automatisch nach fachlichen Standards strukturieren.
- Ein einheitliches Format bringt eine Qualitätssicherung mit sich, unter anderem weil so alle wichtigen Aspekte einer guten Aktennotiz festgehalten werden (beispielsweise die Unterscheidung zwischen Beobachtung, Interpretation, Hypothesen etc.).
- Ausserdem könnte es zu einer mentalen Entlastung beitragen, wenn die KI die Formulierung übernimmt. Die Dokumentationsroutine wird dadurch vereinfacht und die Fachkraft behält die volle Kontrolle über sensible Daten.
Die durchgeführten Usability-Tests (Dumas & Reddish, 1992; Barnum, 2019) mit Fachkräften aus einer Schweizer Einrichtung erhielten überwiegend positive Rückmeldungen. Das Tool ist intuitiv zu bedienen und ermöglicht eine schnelle Einarbeitung, wobei die hohe Qualität der generierten Aktennotizen eine effektive (mentale) Arbeitserleichterung für die Fachkräfte bedeuten könnte. Die strukturierte Ausgabe wurde besonders im Kontext der Qualitätssicherung der Aktennotizen hervorgehoben.
Gleichzeitig gibt es auch bei diesem Prototypen KI-generierte «Halluzinationen». Diese falschen oder erfundenen Informationen gibt ein KI-System so heraus, als ob sie überprüfte Fakten wären. Das passiert, wenn die KI etwas «dazudichtet», statt nur auf bekannte Daten zurückzugreifen. Dies ist ein grundsätzliches Problem bei Textverarbeitungs-KIs, das sich derzeit nur reduzieren, aber nicht vollständig verhindern lässt. Bei diesem Prototypen entstehen die Halluzinationen besonders dann, wenn der eingesprochene Text zu kurz ist (Plafky et al., 2025). Zukünftig werden noch weitere Varianten der Aktennotizstruktur in die KI eingearbeitet, sodass bei wenig eingesprochenem Text die Halluzinationen reduziert werden.
Hier wird sichtbar, dass Fachkräfte die Endkontrolle durchführen müssen, wie dies auch in der KI-Verordnung der EU (Voigt & Hullen, 2024) und vermutlich in einer zukünftigen Regulierung in der Schweiz (Bundesamt für Justiz, 12.2.2025) sowie aus ethischen Überlegungen notwendig ist (siehe auch Plafky & Badertscher, 2025). Es gibt auch technische Überlegungen, damit dies sichergestellt werden kann (Plafky et al., eingereicht): Unsere Forschung hat gezeigt, dass die Fachkräfte nach einem Vertrauensaufbau gegenüber der Anwendung den Schritt der Überprüfung und damit der Verantwortungsübernahme überspringen. Das bedeutet, dass Fehler und potenzielle Halluzinationen nicht bemerkt werden könnten. Weil Fachkräfte die KI-gestützten Dokumentationen zwingend überprüfen müssen, ist der Effizienzgewinn zumindest zeitlich nicht gross, doch werden sie immerhin mental entlastet von Aufgaben, die sie zum Teil als unangenehm und stressreich empfinden.
Gleichzeitig ist es in diesem Kontext unerlässlich, über die Perspektive der Adressat*innen nachzudenken, denn die ethische und rechtliche Frage, wie Daten von Klient*innen in einer KI verarbeitet werden dürfen oder sollen, ist noch nicht geklärt. Die Nutzung einer KI wird sich durch einfache Einverständniserklärungen ethisch nicht rechtfertigen lassen. Die Frage nach der Transparenz des KI-Einsatzes muss hier ebenfalls mitgedacht und geregelt werden. Schlussendlich können diese Punkte einen Einfluss auf die Beziehungsarbeit haben (Plafky & Badertscher, 2025).
Auf der anderen Seite verändern sich durch den Einsatz einer KI-gestützten Dokumentation auch organisatorische Prozesse und womöglich die Organisationskultur. Beispielsweise könnten Fachkräfte einen erhöhten Bedarf nach einer Supervision haben, wenn Reflexionsprozesse ersetzt werden müssen. Hierzu gibt es noch keine Forschungsdaten (Plafky et al., eingereicht).
Implikationen für die Praxis
Die Studie verdeutlicht: Für Organisationen zeigt sich ein dringender Handlungsbedarf bei der Digitalisierung von Dokumentationsprozessen. Dieser Handlungsbedarf bringt die Notwendigkeit datenschutzkonformer KI-Lösungen mit sich. Dabei ist es ebenso wichtig, Fachkräfte in Entwicklungsprozesse einzubinden wie auch klare Richtlinien für den Einsatz, die Weiterentwicklung und Überwachung digitaler Tools zu etablieren. Dies erfordert gezielte Investitionen in eine sichere technische Infrastruktur.
Für die Fachkräfte ergeben sich ebenfalls wichtige Implikationen: Sie müssen sich stärker mit Datenschutzrisiken bei kommerziellen KI-Tools befassen und zugleich die Chancen geprüfter KI-Anwendungen zur Qualitätsverbesserung nutzen. Dafür brauchen sie eine kontinuierliche digitale Weiterbildung. Fachkräfte sollten sich nicht nur als Anwender*innen verstehen, sondern als aktive Mitgestalter*innen der digitalen Transformation (Plafky & Badertscher, 2025).
Ausblick und Handlungsbedarf
Die entwickelte KI-Lösung zeigt beispielhaft, wie der Spagat zwischen effizienter Dokumentation und Datenschutz gelingen kann. Dennoch bleibt noch viel zu tun. Es gilt, integrierte Lösungen für verschiedene Fallführungssysteme zu entwickeln und klare Qualitätsstandards für KI-Anwendungen in der Sozialen Arbeit festzulegen. Dies muss Hand in Hand gehen mit einer umfassenden Schulung und Weiterbildung der Fach- und Leistungskräfte.
Die Auswirkungen in der Praxis sollten kontinuierlich evaluiert, und neue technische Möglichkeiten sollten geprüft werden. Besondere Aufmerksamkeit verdient dabei die systematische Erforschung der langfristigen Folgen für die Fallarbeit. Dass viele Fachkräfte inzwischen nicht genehmigte kommerzielle KI-Tools nutzen, zeigt deutlich, wie gross der Modernisierungsdruck in der Sozialen Arbeit ist. Statt diese Entwicklung zu ignorieren, sollten Organisationen proaktiv datenschutzkonforme Alternativen bereitstellen. Nur so kann die digitale Transformation der Dokumentationspraxis gelingen, ohne dabei fundamentale Prinzipien des Datenschutzes und der professionellen Qualität zu gefährden (Plafky et al., 2025).
Literatur
- Bundesamt für Justiz (12.2.2025). Künstliche Intelligenz.
- Lillis, T., Leedham, M., & Twiner, A. (2020). Time, the written record, and professional practice: The case of contemporary social work. Written Communication, 37(4), 431–486.
- Lillis, T., Twiner, A., Barklow, M., Lucas, G., Smith, M., & Leedham, M. (2023). Reflections on the procedural and practical ethics in researching professional social work writing. Journal of Applied Linguistics and Professional Practice.
- MacAlister, J. (2022). The independent review of children’s social care – Final report (pp. 178–187).
- Mösch Payot, P. & Pärli, K. (2022). Datenschutz in der Sozialen Arbeit. Eine Praxishilfe zum Umgang mit sensiblen Personendaten. Bern: AvenirSocial.
- Pascoe, K. M., Waterhouse-Bradley, B., & McGinn, T. (2023). Social workers’ experiences of bureaucracy: A systematic synthesis of qualitative studies. The British Journal of Social Work, 53(1), 513–533.
- Plafky, C.S. & Badertscher, H. (2025). Transformation der Sozialen Arbeit durch Künstliche Intelligenz. Potenziale, Herausforderungen und Ethik im digitalen Zeitalter. Springer VS.
- Plafky, C.S.; Purandare, M.; Plattner, B. & Hrytsai, S. (2025). Aktennotizerstellung in der Sozialen Arbeit durch Künstliche Intelligenz – Erkenntnisse aus einem Mixed-Method – Forschungsprojekt. Gesa A. Linnemann, Julian Löhe & Beate Rottkemper (Hrsg.), Künstliche Intelligenz in der Sozialen Arbeit: Grundlagen für Theorie und Praxis. Weinheim: Beltz Verlag (open-access).
- Plafky, C.S.; Purandare, M.; Plattner, B. & Hrytsai, S. (eingereicht) AI-Supported Case Documentation in Social Work: Potentials and Challenges for Professional Practice.
- Voigt, P., & Hullen, N. (2024). Handbuch KI-Verordnung: FAQ zum EU AI Act. Berlin/Heidelberg: Springer-Verlag.