DSS in der Sozialwirtschaft: Verunsicherung abbauen, Verantwortung klären

12.05.2026

DSS in der Sozialwirtschaft: Verunsicherung abbauen, Verantwortung klären

Zu sehen ist der Header zum Thema Sozialrecht und Sozialwesen mit der Autorin Diana Schneider

von Dr. Diana Schneider

Seit einigen Jahren etablieren sich Systeme der Entscheidungsfindung, sogenannte Decision Support Systems (DSS), in verschiedenen Anwendungsfeldern, zunehmend auch im Sozialrecht, der Sozialen Arbeit und in der Sozialwirtschaft. International werden diese – oft auf künstliche Intelligenz (KI) basierenden – DSS bereits in der Strafverfolgung, in der Justiz oder im öffentlichen Sektor, bspw. im Bereich der Arbeit und Arbeitslosigkeit oder zur Identifikation von Kindeswohlgefährdungen eingesetzt. DSS können Bearbeitungszeiten senken, Qualität sichern und Ermessensentscheidungen konsistenter machen. Der Diskurs dazu gewinnt auch hierzulande an Dynamik. Immer seltener geht es um das Ob, vielmehr um das Wie: Unter welchen rechtlichen, fachlichen und organisatorischen Bedingungen stiften DSS nachweislich Nutzen, ohne professionelle Urteilsbildung oder Betroffenenrechte zu gefährden?

Risiken minimieren, Transparenz stärken

KI-basierte DSS können sehr leistungsstarke Systeme sein und menschliche Entscheidungsprozesse sowohl in kognitiver, zeitlicher, räumlicher als auch wirtschaftlicher Hinsicht unterstützen. Für Führungskräfte in sozialwirtschaftlichen Organisationen und Jurist:innen im Sozialrecht stellen sich jedoch zentrale Fragen: Wie lassen sich die Potenziale dieser Systeme nutzen, ohne die Risiken zu vernachlässigen? Denn DSS haben das Potenzial, diskriminierende bzw. stigmatisierende Annahmen zu verstärken, und zeichnen sich zuweilen durch hohe Intransparenz und fehlende Nachvollziehbarkeit aus. Entscheidungen, die mithilfe KI-basierter DSS getroffen werden, können folglich eine Vielzahl schwerwiegender und weitreichender Auswirkungen auf Einzelpersonen, Institutionen, Verbände oder die Gesellschaft haben – und das nicht nur, wenn es hierbei zu Fehlern kommt, sondern bereits im regulären Einsatz.
 
Entsprechend steigen die Anforderungen an DSS: Aspekte wie Transparenz, Nachvollziehbarkeit und der Schutz vor Diskriminierung stehen bereits seit Längerem im Fokus. Mit der neuen EU-Verordnung zu KI dürften spezifische Transparenzpflichten und umfangreiche Anforderungen an Datenqualität, Dokumentation und Nachvollziehbarkeit hinzukommen. Denn KI-basierte DSS, die Entscheidungen im Sozialrecht, der Sozialen Arbeit oder Sozialwirtschaft unterstützen, fallen potenziell in die Kategorie „hohes Risiko“, da hierbei Grundrechte von EU-Bürger:innen berührt werden könnten.

Handlungssicherheit statt Verantwortungsvakuum

Obgleich sich die regulatorischen Rahmenbedingungen für den Einsatz von KI-basierten DSS zunehmend konkretisieren – Datenschutz und Sozialdatenschutz bilden hierbei ebenfalls wesentliche rechtliche Grundlagen – schafft dies für potenzielle Nutzende zunächst kaum Handlungssicherheit. Zu groß ist die Befürchtung, dass professionelle Ermessensspielräume durch DSS eingeschränkt werden oder algorithmische Analysen ohne kritische Prüfung in Entscheidungen einfließen.
 
Tatsächlich werden DSS in der Praxis oft als „Zweitmeinung“ wahrgenommen. Dies kann Verunsicherung hervorrufen und faktisch zu einem erhöhten Entscheidungsdruck auf Fachkräfte führen. Wenn Fachkräfte den verantwortungsvollen Einsatz von DSS eigenständig bewältigen müssen, entsteht eine zusätzliche Belastung – insbesondere in Fällen, in denen es trotz oder gerade wegen der Einbindung von DSS zu Fehleinschätzungen oder Fehlentscheidungen kommt. Um solche Risiken zu minimieren, sind Organisationen gefordert, verbindliche Regeln zu etablieren, die klare Zuständigkeiten, Grenzen und Schutzmechanismen für die professionelle Entscheidungspraxis festlegen.

Fazit

Wer DSS einführt, sollte zugleich Handlungssicherheit schaffen: Damit Nutzen ohne Rechts- und Reputationsrisiken entsteht, brauchen Mitarbeitende nicht nur Schulungen und Kompetenzaufbau im Umgang mit DSS. Vielmehr müssen Organisationen klare, arbeitsfeldspezifische Leitlinien, verlässliche Governance und ein Management etablieren, das frühzeitig organisatorische und technische Sicherheitsvorfälle bzw. Betriebsstörungen adressiert. Das schafft Handlungssicherheit und den Rahmen für Qualität und Effizienz professioneller Entscheidungen.

Dr. Diana Schneider ist wissenschaftliche Mitarbeiterin am Fraunhofer-Institut für System- und Innovationsforschung ISI in Karlsruhe. Ihre Forschungsschwerpunkte umfassen die ethische und gesellschaftliche Bewertung von Innovationen im Medizin-, Sozial- und Gesundheitswesen, Nachhaltigkeit im ambulanten Gesundheitswesen sowie Technikfolgenabschätzung. Ihr Buch „KI-gestützte Teilhabeplanung für Menschen mit (drohender) Behinderung“ ist im Nomos Verlag sowie Open Access erhältlich.