Interview mit Andreas Møller-Jørgensen (Aalborg Universitet, Department of Sociology and Social Work) zur Digitalisierung von sozialen Leistungen für Kinder, Jugendliche und Familien in Dänemark
Andreas Møller-Jørgensen ist Autor der vom Institut für Sozialpädagogische Forschung Mainz (ism gGmbH) in Auftrag gegebenen Expertise „Digitalisation of social services for children, young people and families in Denmark“ (Die vollständige Expertise können Sie hier lesen). Das Interview mit Andreas Møller-Jørgensen beinhaltet Fragen zu zentralen Themen der Expertise, aber auch darüber hinaus.
Das Interview wurde von Fabian Hemmerich, Elisabeth Schmutz und Dr. Frank Eike Zischke (alle ism gGmbH) im April 2024 per Videokonferenz durchgeführt und simultan vom Dänischen ins Deutsche und umgekehrt übersetzt. Für die hier nachzulesende schriftliche Transkription des Interviews wurden einzelne Stellen des Interviews im Nachhinein gekürzt und geglättet.
FH: Lieber Andreas, schön, dass Du dir heute für dieses Interview mit uns Zeit genommen hast. Du hast für unser Projekt „JAdigital“ eine Expertise zum Thema „Digitalisierung im Kontext von sozialen Leistungen für Kinder, Jugendliche und Familien in Dänemark“ geschrieben und wir freuen uns sehr über diese Gelegenheit, jetzt mit dir nochmal über zentrale Themen, die Du in deiner Expertise behandelst, sprechen zu können.
Starten möchten wir mit dem Thema der Digitalisierung des öffentlichen Sektors in Dänemark im Allgemeinen. Man hört ja immer wieder, dass Dänemark in Europa eines der Länder ist, in denen die Digitalisierung schon besonders weit vorangeschritten ist – anders als dies z.B. in Deutschland der Fall ist, das im internationalen Vergleich meist eher schlecht abschneidet.
Uns würde daher interessieren, woran es deiner Einschätzung nach liegt, dass in Dänemark bisher Vieles so gut klappt, was die Digitalisierung im öffentlichen Sektor betrifft?
AMJ: Das ist eine gute Frage. Was man da sagen kann, ist, dass man diese Listen über Länder und die Durchführung von Digitalisierung nicht so ganz ernst nehmen sollte. Dänemark liegt hoch auf den Listen, aber nicht alles ist geglückt. Aber wir haben vieles erreicht.
Wenn ich versuchen soll, zu erklären, warum wir so vieles bereits haben umsetzen können, dann liegt die Erklärung glaube ich darin, dass die Digitalisierung im öffentlichen Sektor generell seit einigen Jahren im Fokus der Politik gestanden hat, und dies schon lange bevor man in Dänemark angefangen hat, Daten über die Bürger*innen zu sammeln. Wir haben eine lange Tradition, mit digitaler Infrastruktur zu arbeiten. Und das kann teilweise erklären, warum wir so relativ hoch bei diesen Ranglisten abschneiden, in denen die Digitalisierung des öffentlichen Sektors bewertet wird.
Man muss aber auch sehen, dass der öffentliche Sektor in Dänemark ein großes Vertrauen in der Bürgerschaft genießt. Wenn man in Dänemark eine Digitalisierungsinitiative in Gang setzt, dann gibt es ein gewisses „good-will“. Die Bevölkerung zieht mit und andere Akteure ziehen auch mit. Und das gehört auch mit zu den Gründen, warum die Digitalisierung in Dänemark so geglückt ist.
Seit langem haben wir auch eine enge Zusammenarbeit zwischen den Auftraggeber*innen und Einkäufer*innen von öffentlichen Dienstleistungen und privaten Anbieter*innen. Sowohl der öffentliche Sektor als auch der private Sektor haben ein Interesse an Digitalisierung. Das gehört zu der Erklärung dazu, dass die Digitalisierung im öffentlichen Sektor in Dänemark soweit fortgeschritten ist.
FH: Vielen Dank Andreas, das ist super interessant. Ich würde den Aspekt der Akzeptanz in der Bevölkerung gerne noch einmal aufgreifen wollen, denn ich glaube dieser Aspekt ist sehr wichtig. In Deutschland existieren viele Vorbehalte zur Digitalisierung in der Bevölkerung, insbesondere mit Blick auf den Datenschutz. Da gibt es viele Sorgen und Befürchtungen der Bürger*innen. Datenschutz ist bereits ohne Digitalisierung ein wichtiger Punkt, aber mit Digitalisierung noch viel mehr, weil es natürlich noch mehr Möglichkeiten gibt, Daten längerfristig zu speichern oder anderweitig zu nutzen. Hinzu kommen Sorgen in Bezug auf Hackerangriffe oder ähnliches, auch so etwas ist bei Digitalisierung ja mitzudenken. Kannst Du etwas dazu sagen, ob es solche Vorbehalte und Befürchtungen im öffentlichen Diskurs in Dänemark denn ebenfalls gibt?
ES: An dieser Stelle möchte ich gerne noch eine Frage ergänzen. Ich hatte eine weitere Nuance herausgehört, und zwar, dass das Vertrauen in den öffentlichen Sektor in Dänemark aus der Bevölkerungsperspektive möglicherweise deutlich höher ist als in Deutschland. Bei uns in Deutschland existiert eine höhere Skepsis gegenüber dem, was von der öffentlichen Hand an Erwartungen kommt. Du sagtest, eine Basis in Dänemark war, dass viele Daten quasi schon sowieso gesammelt wurden. Und bei uns in Deutschland gibt es schon eine große Zurückhaltung, nicht nur was den Datenschutz betrifft, sondern auch noch in Bezug auf andere Aspekte. Zum Beispiel spielen dort auch Fragen wie „Wer will was von mir?“, „Was wird mit den Daten passieren?“ und „Wo entgleiten mir Einflussmöglichkeiten?“ eine Rolle.
AMJ: Ich kenne die Lage in Deutschland leider nicht so besonders gut. Aber es stimmt schon, dass wir in Dänemark ein relativ großes Vertrauen in den öffentlichen Sektor haben. Wenn wir über Digitalisierung reden und darüber, dass wir Daten speichern, dann ist es nicht selten, dass wir auch Datenlecks erleben. Es gibt auch Fälle, wo man sehen kann, dass die Sicherheit fragil ist. Wir sehen diese Fälle auch bei uns, aber es ist so, dass sie nicht zu einer großen öffentlichen Diskussion führen. Wir sehen Fälle, wo Daten verschwinden. Wir sehen Fälle, wo Daten an falschen Orten landen. Aber dies führt nicht zu einer großen Skepsis über die Handhabung der Daten von Seiten der öffentlichen Hand. Da gibt es, glaube ich, Unterschiede zwischen der dänischen Geschichte und dem Wohlfahrtsstaat in Dänemark im Vergleich zu Deutschland. Das spielt hierbei, glaube ich, eine sehr wichtige Rolle.
FH: Vielen Dank Andreas. Lass uns nun etwas genauer über die digitale Verwaltung in Dänemark sprechen.
Ich fand es super spannend in Deiner Expertise zu lesen, dass es in Dänemark schon seit einigen Jahren so ist, dass Bürger*innen ab einem gewissen Alter dazu verpflichtet sind, Nachrichten von Behörden digital zu empfangen. Bestimmte Verwaltungsleistungen werden dort offenbar zudem nur digital über eine Plattform angeboten, die im ganzen Land genutzt wird.
In Deutschland stellt sich diese Situation aktuell ganz anders dar, was u.a. auch damit zu tun hat, dass wir hier sehr stark föderal organisiert sind. Wir befinden uns zwar auf dem Weg dorthin, sind zum heutigen Stand aber noch weit davon entfernt. Umso mehr würde mich aber interessieren, wie das genau in Dänemark funktioniert und wie sichergestellt wird, dass wirklich alle Bürger*innen auf digitalem Wege erreicht werden können?
AMJ: Das stimmt, wir haben ein digitales Postsystem. Das ist per Gesetz eingeführt worden. Digitale Post von der öffentlichen Hand hat bei uns den gleichen juristischen Wert wie Papierpost. Wir haben in Dänemark ein System mit verschiedenen Anbieter*innen etabliert, das genutzt wird und in der öffentlichen Hand liegt. Das System heißt „Digitale Post“. Der Grund, warum man dieses System und kein beliebiges Mailsystem nutzt, liegt darin, dass man damit eine gewisse Sicherheit bieten kann. Jede Kommunikation, die zwischen der öffentlichen Hand und den Bürger*innen in Dänemark stattfindet, kann in diesem System relativ sicher vermittelt werden.
Das erfordert aber auch, dass man ein Identifikationssystem benötigt. Derzeit heißt dieses Identifikationssystem MitID und stellt eine Methode dar, um sich digital identifizieren zu können. MitID ist eine Online-ID, die nicht nur in der Interaktion mit der öffentlichen Hand benutzt werden kann, sondern auch in Bankgeschäften und in anderen Zusammenhängen. Ab dem Alter von 15 Jahren ist man dazu verpflichtet, eine Online-ID einzurichten und seine digitale Post zu verfolgen.
Dies ist eine Herausforderung für viele Menschen in Dänemark. Das entdeckt man mehr und mehr. Man sucht jetzt nach Möglichkeiten, wie man die Bürger*innen schon in einem jungen Alter besser ausbilden kann, damit sie diese Online-ID-Systeme benutzen können, und dafür zu sorgen, dass die digitale Post gelesen wird. Die Gefahr besteht nämlich darin – auch für mich persönlich – dass man vergisst, in seiner Inbox nachzuschauen. Es ist ja nicht so selbstverständlich, in diese Online-Inbox zu schauen, wie wenn man zum Beispiel in seinen Briefkasten schaut. Daher wird versucht, die Kinder schon in der Grundschule dafür auszubilden.
Aktuell haben die Gemeinden Bürgerzentren, die die Aufgabe haben, die Bürger*innen in der Anwendung der digitalen Systeme zu unterstützen. Es wurde ein System aufgebaut, zu dem man am Anfang gedacht hat, „Das werden die Bürger*innen schon schaffen!“. Und jetzt hat man entdeckt, dass es ein bisschen schwieriger ist, als man dachte, und versucht jetzt eine neue Strategie. Es wird versucht mit der Ausbildung in der Grundschule und neu eingerichteten Servicezentren in den Gemeinden die Bürger*innen darin zu unterstützen die digitalen Systeme zu benutzen.
FH: Vielen Dank Andreas, das fand ich jetzt noch einmal spannend zu sehen, dass manche Dinge erst im Nachhinein deutlich werden, wenn man so ein neues System bereits etabliert hat und dass sich dabei gleichzeitig neue Herausforderungen ergeben!
ES: Beim Zuhören ist mir noch durch den Kopf gegangen, dass dieses digitale Postsystem jetzt sehr textorientiert klingt. Zumindest stelle ich es mir so vor, dass es Texte sind, die dann im Postfach liegen. Wie verhält es sich hier mit der Barrierefreiheit – also mit Blick auf Menschen, die nicht sehen können oder sich schwertun im Lesen? Gibt es da Vorkehrungen? Oder ist das dann auch eine Aufgabe der Bürgerzentren, eine Übersetzungsmöglichkeit und Möglichkeiten zur Überwindung von Barrieren zu schaffen?
AMJ: Das ist eine richtig gute Frage. Ich bin mir nicht ganz sicher, wie das mit der digitalen Post funktioniert. Man muss nur an E-Mails denken. Oft gibt es eine PDF dabei, wo z.B. deine Steuerverhältnisse usw. erklärt werden. Aber wenn man digitale Selbstbedienungslösungen betrachtet – ich weiß nicht, ob die digitale Post darunterfällt – dann ist es auch so, dass es Mindestanforderungen im Hinblick auf mögliche Barrieren gibt. Sehbehinderte etwa müssen das System benutzen können. Die Buchstaben müssen eine gewisse Größe haben und es muss eine Möglichkeit geben, den Text laut vorgelesen zu bekommen. Es gibt auch andere Lösungen, die dafür sorgen sollen, dass Leute, die vielleicht mit Rechnern nicht so gut umgehen können, die Systeme benutzen können. Aber, wie das genau bei der digitalen Post funktioniert, dass weiß ich nicht. Vielleicht gibt es eine Lesefunktion. Ich weiß es nicht ganz genau.
FH: Vielen Dank, Andreas. Ich würde gern als nächstes zu dem Punkt der Digitalisierungsstrategien in Dänemark übergehen. Aber vorher noch eine Frage. Ich hatte beim Lesen der Expertise den Eindruck, dass dieser Verband, den Du erwähnst – auf Englisch genannt „KL - Local Government Denmark Association“ – mit Blick auf das Voranbringen von Digitalisierung in den dänischen Kommunen eine ganz zentrale Rolle spielt. Könntest Du uns die Rolle dieses Verbands etwas näher erklären?
AMJ: KL ist der Zusammenschluss der Gemeinden in Dänemark. Die Digitalisierung in Dänemark ist recht dezentral organisiert. Wir haben drei große Akteur*innen, wenn wir über Digitalisierung im öffentlichen Sektor reden: Erstens setzt der Staat den Rahmen dafür, wie die Digitalisierung in Dänemark entwickelt werden soll.
Dann haben wir zweitens die Gemeinden. Sie haben die letztendliche Verantwortung dafür, dass die Digitalisierung durchgeführt wird, besonders, wenn wir über Kinder und Jugendliche reden. Wir haben 98 Gemeinden in Dänemark. Die könnten sich im Prinzip dazu entschließen, in 98 verschiedenen Weisen zu digitalisieren. Aber das tun sie nicht.
Um die Digitalisierungsherausforderung zu strukturieren, tritt drittens „KL - Local Government Denmark Association“ auf den Plan. Deren Vertreter*innen sprechen politisch für alle Gemeinden zusammen – nicht nur was Digitalisierung betrifft, sondern auch in Bezug auf andere Aufgaben, die bei den Gemeinden liegen. D.h., dass KL eigentlich die Interessenorganisation der Gemeinden ist. Alle Gemeinden sind Mitglied in der KL und sie stehen geschlossen dem Staat gegenüber. Wenn es Verhandlungen mit dem Staat gibt, führt KL diese auf Seiten der Gemeinden. KL ist also einerseits eine Stimme in den Verhandlungen mit dem Staat. Darüber hinaus funktioniert KL auch als Ratgeber in verschiedenen Fragen. D.h. KL macht Analysen und erstellt Vorschläge, zum Beispiel zu Digitalisierungsthemen. Andererseits führt KL eigene Analysen durch und lotet etwa Möglichkeiten für den gemeinsamen Einkauf von Systemen oder anderen Dingen aus.
Wenn man die nationale Digitalisierungsstrategie in Dänemark sieht, ist es in der Regel der Staat, der dahintersteht. Darüber hinaus sind die Gemeinden entscheidend. Das heißt KL ist ein Verhandlungsratgeber für die Gemeinden.
FH: Vielen Dank Andreas, das hat die Rolle von KL auf jeden Fall noch einmal deutlicher gemacht! In Bezug auf die Gesetzgebung zur Digitalisierung in Dänemark hebst Du in deiner Expertise ja eine 2018 getroffene Vereinbarung der dänischen Regierung und der Parteien hervor. Du beschreibst dort, dass die zentralen Ziele dieser Vereinbarung ein effizienterer öffentlicher Sektor und ein transparenteres Fallmanagement durch den Einsatz von digitalen Technologien waren. Hier würde mich interessieren, wie genau diese Zielsetzungen erreicht werden sollen und vor allem auch, was sie ganz konkret mit Blick auf die sozialen Leistungen für Kinder, Jugendliche und Eltern bedeuten?
AMJ: Diese Vereinbarung von 2018 ist ziemlich zentral und weitreichend. Vielleicht ist das in der Öffentlichkeit nicht so bekannt, aber die Vereinbarung läuft darauf hinaus, dass die Gesetzgebung auf allen Gebieten „digitalisierungsbereit“ sein muss. D.h., wenn es ein Gesetz innerhalb des Gebietes „Kinder und Jugendliche“ gibt, dann muss es so konzipiert werden, dass die Umsetzung digitalisiert werden kann.
Dabei muss versucht werden, individuelle Setzungen und Zweideutigkeiten zu vermeiden. Es gilt einen Gesetzestext mit eindeutigen Kategorien, die dann in der praktischen Arbeit mit Kindern und Jugendlichen verwendet werden können, zu formulieren. Dies haben wir in der Praxis bisher nicht gesehen. Es gibt ein Risiko, wenn man anfängt zu standardisieren und keine individuellen Setzungen mehr zulässt. Wenn es eine Gesetzgebung mit Standardisierungen gibt, dann existiert die Gefahr, dass man die Erteilung der Leistungen usw. standardisieren kann.
Von politischer Seite fängt man jetzt an, die Maßgaben in der sozialen Arbeit zu minimieren. Man versucht, eine Gesetzgebung einzuführen, die die Bedeutung der professionellen Einschätzung von Fachkräften reduziert.
ES: Das finde ich hochspannend. Wir hatten in unserem Kinder- und Jugendhilferecht in Deutschland 2021 die letzte Gesetzesänderung, die u. a. noch einmal versucht hat, die Bestimmungen der UN-Kinderrechtskonvention und auch die der Behindertenrechtskonvention konsequenter gesetzlich abzubilden. Und damit ist zum Beispiel auch der Begriff der Selbstbestimmung mit in unser Gesetz gekommen.
Jetzt stelle ich mir das als ziemlich großes Spannungsfeld vor, wenn wir einerseits die großen gesetzlichen Vorgaben zur Partizipation, Selbstbestimmung, Mitgestaltung haben und andererseits das Bemühen um Standardisierung, weil dann die Digitalisierung einfacher wird. Das hört sich fast nach einer Quadratur des Kreises an. Wie siehst du das?
AMJ: Da hast Du glaube ich einen sehr wichtigen Punkt genannt. Wir erleben genau dieses Spannungsfeld hier in Dänemark. Ich weiß nicht genau, wann das implementiert wurde. Aber das letzte Gesetz, das Gesetz des Kindes, da wird über die Mitbestimmung, Einbeziehung usw. gesprochen. Diese Aspekte stehen auf der einen Seite und auf der anderen Seite stehen Standardisierungstendenzen.
Du hast völlig recht. Wir erleben die soziale Arbeit in einem Spannungsfeld, wo man alle Beteiligten hören möchte und auf der anderen Seite möchte man die Prozesse standardisieren und die Unsicherheiten reduzieren, die den professionellen Einschätzungen innewohnen. D.h. es gibt zwei Tendenzen, ich weiß nicht, ob es zwei entgegengesetzte Tendenzen sind, die gegeneinander arbeiten.
FH: Vielen Dank Andreas für diese Erläuterungen. Lass uns bei dem Thema Digitalisierungsstrategien bleiben. Und zwar möchte ich gerne zu dem Punkt Künstliche Intelligenz (KI) kommen. KI ist aktuell international ein großes Thema. Vor allem seit November 2022, als ChatGPT offiziell auf den Markt kam, hat die Thematik KI nochmal deutlich an Tragweite gewonnen.
Ich fand es daher auch spannend, dass Du in deiner Expertise schreibst, dass die dänische Regierung schon ein paar Jahre vorher, nämlich 2019, die erste nationale Strategie zum Einsatz von Künstlicher Intelligenz veröffentlicht hat und dass es in Dänemark auch schon verschiedene Projekte zur Erprobung des Einsatzes von Künstlicher Intelligenz gab und zumindest eines dieser Projekte sich explizit auf soziale Leistungen für Kinder, Jugendliche und Familien bezogen hat.
Daher würde uns zum einen interessieren, ob Du uns nochmal die zentralen Punkte dieser nationalen Strategie zum Einsatz von KI in Dänemark erläutern könntest. Zum anderen interessiert uns, was genau es mit diesem Projekt zum Einsatz von KI im Kontext von sozialen Leistungen für Kinder, Jugendliche und Familien auf sich hat und wie da der aktuelle Stand ist?
AMJ: Wie Du sagst, ist KI etwas, was auch in Dänemark sehr im Gespräch ist. Es gibt sehr viele Formen von Künstlicher Intelligenz. Und das ist ein Gebiet, wo man ganz genau definieren muss, worüber man redet. Das, worüber man 2019 im Zusammenhang mit KI gesprochen hat, ist nicht so umfassend wie das, was wir heute unter KI verstehen, wie z.B. ChatGPT. Künstliche Intelligenz im Lichte der Strategie von 2019 hat v.a. etwas mit Big Data zu tun: etwa, wenn man viele Daten zur Verfügung hat und die Möglichkeit besitzt, diese Daten mittels Künstlicher Intelligenz zu analysieren. ChatGPT ist eine Methode, wie man das machen kann.
Aber wenn wir über Künstliche Intelligenz im Kontext der Zusammenarbeit mit Kindern, Jugendlichen und Familien reden, dann ist es in Dänemark klar auf eine Sache fokussiert: nämlich darauf, dass man voraussagen will, wo es Gefährdungen für die Kinder und Jugendlichen gibt. Und dann geht es darum, ob man die Künstliche Intelligenz dazu benutzen kann, um schneller und sicherer entdecken zu können, ob es den Kindern oder den Jugendlichen in den Familien schlecht geht.
In dem dänischen Projekt zum Einsatz von KI im Kontext von Kindern, Jugendlichen und Familien wurden Daten gesammelt und man hat versucht, diese Daten dazu zu verwenden, Risiken zu erkennen, damit man früher intervenieren kann. Außerdem wurde versucht, die Künstliche Intelligenz dazu zu benutzen, ein sichereres Fundament zu bilden, um erkennen zu können, ob ein Fall akut ist oder nicht. Die Strategie von 2019 zielte auf genau diese Möglichkeit ab. Es sollten die Vorteile der Benutzung von Künstlicher Intelligenz erkannt werden. Aber darüber hinaus wusste man auch schon in dieser Strategie, dass von bestimmten ethischen Prinzipien ausgegangen werden muss. Es ist nicht so, dass man von zentraler Hand gesagt hat, jetzt machen wir „den Wilden Westen“. Man hat vielmehr gesagt, dass man Prinzipien haben muss und dafür sorgen muss, dass man keine unguten Beschlüsse reproduziert, wenn man eine Datengrundlage mit Künstlicher Intelligenz benutzt.
Also die ethischen Guidelines hat man auf der einen Seite und auf der anderen Seite hat man ein großes Interesse daran, alle möglichen Sachen zu versuchen. Wir müssen einsehen, dass es einen „Drive“ gibt, verschiedene Möglichkeiten gerne auszuprobieren.
FH: Vielen Dank, hier sollten wir noch ein bisschen weiter dranbleiben an dem Thema, weil sich hier natürlich einige weitere Fragen stellen, die Du gerade schon aufgeworfen hast, gerade auch, was die ethischen Aspekte angeht. Du beschreibst in Deiner Expertise auch ein Projekt, das 2018 in einer dänischen Gemeinde initiiert wurde. Dort sollte ein prädiktiver Algorithmus zur Identifizierung von Kindern, bei denen die Gefahr besteht, dass sie sozial gefährdet sind, entwickelt werden und dazu sollten Daten, u. a. zur Gesundheitsgeschichte, zum Wohnort, zur ethnischen Zugehörigkeit u.v.m. gesammelt und verglichen werden. Wie Du weiterhin schreibst, wurde der Plan zur Entwicklung eines solchen prädiktiven Systems 2018 zwar initiiert, dann aber aufgrund rechtlicher Fragen vorzeitig beendet. An der Stelle würde uns noch interessieren, welche Einwände zur Beendigung dieses Projekts geführt haben?
AMJ: Wie Du sagst, möchte man grundsätzlich gerne Daten aus verschiedenen Quellen sammeln. Der Gedanke dahinter ist, dass man, wenn man viele Daten zur Verfügung hat, Künstliche Intelligenz vielleicht dazu benutzen kann, bestimmte Muster zu identifizieren, um eine mögliche Gefährdung vorauszusagen. Die juristische Herausforderung ist dabei jedoch, dass nur Daten benutzt werden dürfen, bei denen die Betroffenen zuvor hierfür eingewilligt haben.
Als ein negatives Beispiel für die Nutzung von Künstlicher Intelligenz wird das Gladsaxe-Modell in Dänemark genannt. Das ist eine Stadt in Dänemark. Das Problem war dort, dass man eine ganze Menge von Daten benutzen wollte, hierfür jedoch keine juristische Grundlage hatte. In den ähnlichen Projekten hat man genau dasselbe Problem. Man möchte gerne Gesundheitsdaten und alle möglichen anderen Daten von den Behörden sammeln. Aber man kann „den Rüssel nicht überall reinstecken“ und diese Daten „raussaugen“. Das ist die juristische Grenze. Dazu kommen dann noch ethische Herausforderungen.
FH: Gibt es denn aktuell weitere Projekte in Dänemark, wo mit KI Versuche gemacht werden? Und gibt es Überlegungen dazu, wie man mit dieser Problematik zukünftig umgehen kann?
AMJ: Nach meinem Wissen hat es bisher insgesamt vier Projekte gegeben, die auf verschiedene Weise versucht haben, Künstliche Intelligenz bei verschiedenen Formen von Gefährdung einzusetzen. Drei von diesen vier Projekten sind inzwischen beendet, weil es juristische Bedenken gab. Es gab auch ethische Bedenken, aber normalerweise scheitern die Projekte an den juristischen Herausforderungen.
Das aktuellste Projekt liegt in der Gemeinde Kopenhagen. Die benutzen nur Daten, die sie selbst besitzen und daher auch benutzen können. D.h. sie haben nicht die gleichen Herausforderungen, denn sie gewinnen die Daten nicht aus anderen Quellen. Sie sind in diesem Projekt dann jedoch auf ein anderes juristisches Problem gestoßen. Es gab nämlich ein Urteil von der EU, das besagt, dass Daten nicht außerhalb der EU-Grenzen transferiert werden dürfen. In dem Kopenhagener Projekt hatte man jedoch einen Server in einem anderen Land stehen. D.h. dass die Daten, die Kopenhagen gehörten, außerhalb der EU lagen. Inzwischen hat man diese Daten wieder in die EU geholt und kann sie nutzen.
Wenn man mit Entwickler*innen spricht, dann sagen sie „Je mehr Daten man hat, desto bessere Analysen und Einschätzungen kann man vornehmen“. Aber je mehr Daten man benutzt, desto schwieriger wird es rein juristisch, weil man diese dann nicht mehr gut überwachen kann. D.h. es gibt einen Trade-off zwischen juristisch-ethischen Überlegungen auf der einen Seite und der Effektivität auf der anderen Seite.
FH: Vielen Dank Andreas! Es gibt wirklich viele Fragen, die sich beim Einsatz von Künstlicher Intelligenz stellen. Hierzu gehören natürlich auch noch die zahlreichen ethischen Aspekte. Daher finde ich jetzt auch interessant, dass zunächst noch einige rechtliche Fragen der Datennutzung geklärt werden müssen, bevor die ethischen Fragen in den Fokus gelangen.
ES: Mich beschäftigt die ganze Zeit, ob nicht auch noch eine dritte Ebene relevant ist: nämlich die, mit welchem Ziel und mit welcher Intention die Daten gesammelt und ausgewertet werden und auf welcher Ebene Schlussfolgerungen gezogen werden. Meines Erachtens macht es einen Unterschied, ob ich Daten beobachte und sage „Okay, da fällt etwas auf!“ und ich nehme das als Impuls, um mit den Menschen ins Gespräch zu gehen, oder ob ich eine Auswertung mache und den Menschen sage, sie müssen dieses oder jenes tun.
In letzterem Fall würden die Daten über die Menschen und über unser Handeln bestimmen, aber im erstgenannten Fall sieht dies m.E. etwas anders aus. Wir haben bei uns in Deutschland z.B. in vielen Orten sog. Lotsensysteme aus der Geburtshilfe in die Frühen Hilfen, die mit einem standardisierten Assessment arbeiten, also auch Daten erfassen. Aber dabei geht es dann immer darum zu sagen „Okay, da haben wir den Eindruck, da könnte eine Familie in einer besonderen Belastungssituation sein!“, um mit den Familien dann dazu ins Gespräch zu gehen und die Auffälligkeiten miteinander abzugleichen und Unterstützungsmöglichkeiten anzubieten. Aber die Familien entscheiden letztendlich selbst, ob sie Unterstützung brauchen und die angebotene Hilfe in Anspruch nehmen wollen. Also wir befinden uns da ganz klar im Freiwilligenbereich und noch nicht im Kinderschutz. Das wäre für mich auch nochmal ein wichtiger Unterschied.
AMJ: Ich denke, das ist ein sehr wichtiger Punkt. Die erste Frage ist, wie Daten zusammengesetzt werden und die zweite Frage, wozu die Daten benutzt werden. Du hast ganz Recht. Bisher sind wir in Dänemark, wenn wir über Künstliche Intelligenz geredet haben, von den Daten ausgegangen. Das hat natürlich Konsequenzen, auch abgesehen von den juristischen.
Wir vergessen oft, wie Daten eigentlich produziert worden sind. Es gibt Studien, die zeigen, dass Daten oft in einem Kontext erarbeitet werden, wo Sozialarbeiter*innen diese Daten einspeichern, etwa nach einem Gespräch mit Jugendlichen oder Familien. Aber es gibt eine Studie, die besagt, dass diese Daten teils sehr verschieden ausfallen können, obwohl man genau mit demselben System arbeitet. D.h. Daten sind nie „neutral“. Daten sind keine Sachen, die immer „geerntet“ werden können. Da, glaube ich, sind wir zu technologisch-optimistisch gewesen in Dänemark. Weil Daten nicht „einfach nur Daten“ sind, sondern immer mit einem gewissen Ziel erfasst worden sind, muss man diese auch differenzieren.
Das ist die eine Sache. Und eine andere Sache ist die Frage, wozu die Daten verwendet werden. Verwenden wir diese Daten dazu, dass man rausgeht und sagt „Das System sagt, dass du gefährdet bist und deshalb machen wir diese und jene Maßnahmen!“ oder benutzen wir die Daten dazu, zu sagen „Unsere Daten geben Anhaltspunkte, dass es in deiner/Ihrer aktuellen Lebenssituation Schwierigkeiten oder Probleme geben könnte!“. Und vielleicht müsste man sich zwischen diesen zwei Polen bewegen und die Daten dazu benutzen, einen Dialog mit den Menschen zu initiieren, die betroffen sind.
ES: Ich finde das passt ganz gut zu einem Aspekt, den wir bereits bei Veranstaltungen zum Kinderschutz diskutiert hatten: Dass es überlegenswert wäre, digitale Assistenzsysteme für Fachkräfte zu entwickeln, die diese zum einen in der Informationssammlung, gerade auch im Kinderschutz, unterstützen. Denn aus der Fehlerforschung wissen wir, dass es eine Hürde oder auch Falle im Kinderschutz sein kann, zu schnell zu meinen, man hätte alle wichtigen Informationen erfasst, aber tatsächlich sind bestimmte, ebenfalls wichtige, Bereiche aus dem Blick geraten.
Da könnte so eine Systematik, die mich als Fachkraft immer wieder leitet, im Sinne von „Hast Du an das gedacht?, an das gedacht?, an das gedacht?“ etc., hilfreich sein, um systematischer Informationen zu sammeln. Die Schlussfolgerungen aus den gesammelten Daten aber – das haben wir bei uns in Deutschland auch gesetzlich verankert – müssen im Zusammenwirken mehrerer Fachkräfte erfolgen. Das darf nicht an die Technik abgegeben werden. Allerdings könnte die Technik vielleicht auch hier dabei helfen, dass man dann Schlussfolgerungen nicht zu pauschal trifft, sondern auch hier genauer darauf schaut, wie gravierend eine Gefährdung ist (sofern man eine Gefährdung sieht) und genauer darauf schaut, ob man alle wichtigen Bereiche bedacht hat.
Die Technik würde hierbei also eine unterstützende Funktion einnehmen, sodass aber die Menschen die Agierenden bleiben und nicht die Maschinen das Heft des Handelns übernehmen.
AMJ: Ja, bei einem Projekt in Australien ist z.B. auch der Gedanke, dass man Prinzipien/Überlegungen dazu formulieren will, wie wir Daten so produzieren können und die soziale Arbeit mit Kindern, Jugendlichen und Familien so digitalisieren können, dass es für die Praktiker*innen auch relevant wird und die Probleme gelöst werden, die Kinder und Jugendliche haben. Die technologische Lösung soll hierbei aber nicht die Überhand haben.
In Dänemark haben wir jahrelang Daten gesammelt und haben daher viele Daten. Wir haben neue Möglichkeiten, diese Daten zu behandeln und Muster zu erkennen. Dann können wir danach fragen, was wir damit machen können.
Ich denke, es sollte mehr auf die Bedürfnisse geschaut werden. Ich meine, dass wir Künstliche Intelligenz benutzen können und sollten, aber wir müssen von den Bedürfnissen ausgehen und dann dafür sorgen, dass die Organisation und die Technik dazu passen. Wenn wir uns Künstliche Intelligenz anschauen, ist es oft so, dass man sagt, dass sie eine Unterstützung für die Entscheidungsfindung ist.
Aber in der Regel ist es so, dass die Entscheidungsfindung eigentlich durch die Daten überhaupt erst gemacht wird und man davon überzeugt wird, dass das, was die Technologie über ein Problem sagt, das richtige ist. Daher muss man die Fachkräfte dafür schulen, die „Stimme“ einer Künstlichen Intelligenz zu verstehen. Und man muss auch dafür sorgen, dass die Organisationen, in denen ein KI-gestütztes digitales Assistenzsystem implementiert wird, einen Raum dafür schaffen, um mit diesen Themen zu arbeiten, damit es nicht ein rein technologisches Entscheidungsfindungssystem wird. Und das gibt es in Dänemark bisher in dieser Form noch nicht.
FH: Vielen Dank, Andreas! Ein weiteres Thema, das Du in deiner Expertise behandelst und auf das ich gerne noch eingehen würde, ist der Einsatz von digitalen Technologien zum Fallmanagement. Du beschreibst in der Expertise, dass in Dänemark bereits im Jahr 2010 beschlossen wurde, Fallmanagement durch Digitalisierung zu stärken, vor dem Hintergrund, dass die sozialen Dienste für Kinder, Jugendliche und Familien mit immer größeren Anforderungen an die Fallbearbeitung und Dokumentation konfrontiert wurden. Diese Situationsbeschreibung trifft für Deutschland auch gegenwärtig noch sehr stark zu. Die Dokumentation erfordert für die Fachkräfte sehr viel Zeit und Arbeit und viele würden sich hier Erleichterung durch digitale Systeme wünschen.
Wie du beschreibst, wurde in Dänemark ja dann das gemeinsame kommunale Fallmanagementsystem „DUBU“ entwickelt, das die Qualität der sozialen Dienste unterstützen und steigern sollte. 2013 wurde von der dänischen Regierung beschlossen, dass alle Kommunen dieses System oder zumindest ein sehr ähnliches System benutzen müssen. Hier gibt es auch einen zentralen Unterschied zu Deutschland, da es hierzulande viele unterschiedliche Fallmanagementsysteme gibt in den einzelnen Kommunen.
Meine Bitte an dich wäre nun: Könntest Du uns vielleicht kurz erklären, wie solche Fallmanagementsysteme überhaupt funktionieren und was deren zentrale Vorteile, aber auch die damit verbundenen Herausforderungen für die Fachkräfte sind, die damit arbeiten?
AMJ: Zunächst möchte ich kurz beleuchten, wie schnell die Dinge sich auf diesem Feld verändern. Als ich die Expertise schrieb, gab es 80 Gemeinden, die dieses System nutzten. Inzwischen sind es bereits 91 Gemeinden (Anmerkung: In Dänemark gibt es insgesamt 98 Gemeinden, s. hierzu auch Kapitel 2.1 der Expertise von Andreas Møller-Jørgensen). Die Entwicklung verläuft hier also sehr schnell.
Das Fallmanagementsystem „DUBU“ ist auf dem sogenannten ICS-Dreieck, dem „Integrated Children‘s System“, aufgebaut (Anmerkung: Das Integrated Children's System (ICS) wurde im Vereinigten Königreich entwickelt und steuert alle administrativen Prozesse des Fallmanagements , wie z.B. die Falleröffnung, die Dokumentation der Kinderschutzuntersuchung, die offiziellen Korrespondenzen, Gespräche und Beratungen, die Gewährung von Leistungen und die Planung; s. hierzu auch Kapitel 4.2 der Expertise von Andreas Møller-Jørgensen). Mit „DUBU“ hat man versucht, ein System zu entwickeln, das alle Schritte eines typischen Falles – von dem Moment an, wo man feststellt, dass ein Problem vorliegt, bis zu dem Moment, an dem der Fall gelöst worden ist – behandeln kann.
Das System ist dafür ausgelegt, dass man alles Relevante zu einem Fall darin beschreiben kann. Das System beinhaltet u.a. zentrale juristische Forderungen und Stichdaten dazu, bis wann man bestimmte Gespräche durchgeführt haben muss. Das alles ist im System enthalten. Wenn man einen Fall gestartet hat, gibt es immer bestimmte Schritte, die durchgeführt werden müssen und die im System mit Daten hinterlegt sind. Und das hilft den Fachkräften dabei, alle Forderungen zu erfüllen.
Nun kann man aber natürlich immer auch kritisch fragen, welche Aspekte von diesem System genau erfasst werden. Dieses ICS-Dreieck, auf dem „DUBU“ aufbaut, beinhaltet wichtige Elemente eines Kinderlebens, aber nicht alle. So bleiben z.B. strukturelle Verhältnisse völlig außen vor und gehen damit nicht in das Verstehen von sozialen Problemen ein, wenn wir die Lebenssituation von Kindern in Dänemark analysieren. Denn in diesem System gibt es kein Feld, in dem man so etwas beschreiben kann. Es gibt in dem System immer nur bestimmte Kategorien und andere können nicht genutzt werden.
Und dann ist die Frage, wie man den ganzen Verlauf eines Falls beschreibt. Da gibt es bestimmte „Interpretationsschemen“. Wenn man als Fachkraft mit Kindern und Jugendlichen arbeitet, schaut man in das System rein und dort gibt es dann Anweisungen dazu, wie man Probleme bei Kindern und Jugendlichen interpretieren und bearbeiten kann. An dieser Stelle wird dann relevant, wie dieses System funktioniert und wie die Fachkräfte im Hinblick auf die Nutzung dieses Systems geschult/qualifiziert sind.
Ich verstehe, dass es gesteigerte Dokumentationserfordernisse in Deutschland gibt. Wenn man das als Ausgangspunkt nimmt, dann wird das Fallmanagement auch so aussehen, aber dann fängt man meines Erachtens am falschen Ende an. Man könnte sich auch vorstellen, dass man ein solches Fallmanagementsystem anders verwendet, nämlich als Ausgangspunkt für einen Dialog. Dann kann man vielleicht nicht dokumentieren, worüber man gesprochen hat, weil es dafür kein Textfeld im System gibt. Aber ein solches Fallmanagementsystem kann die soziale Arbeit und die Art und Weise wie man mit Bedacht mit beteiligten Kindern und Jugendlichen arbeitet, trotzdem prägen.
ES: Ich habe dazu eine konkrete Nachfrage. Wir haben in Deutschland auch Software in den Jugendämtern, die, glaube ich, vergleichbar ist. Das geht zum Teil so weit, dass da schon Textbausteine hinterlegt sind, sodass man gar nicht mehr selber formulieren muss (wenn es z.B. in der Hilfeplanung um ein bestimmtes Thema geht, kriegt man direkt schon einen Vorschlag dazu, wie man dazu etwas formulieren kann). Dies kann dann mit sich bringen, dass man nicht mehr mit den Worten der Menschen formuliert, die eine bestimmte Situation oder einen bestimmten Wunsch ursprünglich beschrieben hatten. Ist das bei Ihrem System auch so?
AMJ: Da bin ich ein bisschen unsicher. DUBU ist ziemlich groß und bietet viele Anwendungsmöglichkeiten. Das System beinhaltet sowohl Freitextfelder, in denen man ein Gespräch resümieren kann als auch Dropdown-Menüs, bei denen man etwas auswählen kann. Das meine ich mit „Interpretationsschemen“. Dann sieht man die Sachen mit den Augen dieses Schemas. Aber ob es auch fertige Textblöcke in DUBU gibt, das weiß ich nicht.
FH: Wird DUBU denn aktuell weiterentwickelt? Ist zu erwarten, dass es neue Versionen geben wird, bei denen sich dann auch die Oberfläche verändern wird? Und besteht dann z.B. auch Hoffnung, dass die aktuell noch nicht hinreichend abgedeckten strukturellen Aspekte in zukünftigen Versionen stärker berücksichtigt werden?
AMJ: DUBU wird ständig weiterentwickelt. Ich glaube, man ist aktuell bei Version 3. Es werden ständig neue Sachen hinzugefügt und andere werden rausgenommen. In Bezug auf strukturelle Aspekte wird sich DUBU aber, glaube ich, nicht grundlegend ändern, so lange es eindeutig auf ICS aufgebaut ist und so lange wir soziale Probleme nicht generell immer auch als strukturelle Probleme betrachten. Dies wird jedoch Zeit brauchen und würde eine neue Definition von sozialen Problemen benötigen, die dann in DUBU implementiert werden müsste.
FH: Vielen Dank, Andreas. Ich möchte abschließend noch zu einem ganz zentralen Punkt kommen, den Du auch in dem Resümee deiner Expertise sehr hervorhebst: nämlich, dass Digitalisierung immer auch das Risiko mit sich bringt, dass Gruppen, die ohnehin schon marginalisiert sind, noch stärker ausgegrenzt werden könnten. Könntest Du zum einen nochmals erklären, warum Digitalisierung dieses Risiko aus deiner Sicht immer mit sich bringt? Und zum anderen würde uns gleichzeitig aber auch interessieren, welche Ideen Du vielleicht hast im Hinblick darauf, was getan werden könnte oder sogar getan werden müsste, um dieses Risiko so gut es geht zu reduzieren?
AMJ: Die Marginalisierung ist für mich ein sehr großes Problem, wenn man über Digitalisierung redet. Denn wir haben dabei meist eine*n „Idealbürger*in“ im Kopf. Diese Person, diese*r „Idealbürger*in“ hat Zugang zu einem Rechner, Zugang zum Internet, hat E-Post, hat digitale Kompetenzen und kann natürlich auch durchschauen, wie Daten produziert worden sind und welche Beschlüsse man anhand der Daten treffen kann.
So sieht die Wirklichkeit aber nicht aus. Und so ist es vor allem auch nicht, wenn man sich marginalisierte Gruppen anschaut. Wir haben bei uns in Dänemark ja z.B. diese digitale Post und das Online-Bürgerportal borger.dk und man will alle Dienstleistungen digital zur Verfügung stellen. Ein Problem besteht jedoch immer dann, wenn man sagt, alle müssen das tun und wir erwarten, dass alle das tun. In diesem Fall ist das ein Problem, denn es erfordert viele Kompetenzen, wenn man sich online bewegen will. Man muss z.B. verstehen, wie die Maus funktioniert, wie der Rechner funktioniert, etc.. Es macht z.B. Spaß, wenn man Kindern dabei zuschaut, die zum ersten Mal eine Maus benutzen: Die Kinder können sie in der Regel nicht bedienen, weil sie nämlich Touchscreen auf ihren Geräten gewöhnt sind.
Man setzt leider oft als eine Selbstverständlichkeit voraus, dass Bürger*innen digital versiert sind. Gerade bei den marginalisierten Gruppen ist jedoch oft das Problem, dass sie diese Kompetenzen nicht haben. Wie löst man das Problem? Die dänische Strategie ist, dass man es leichter machen will, Vollmachten zu erstellen. Aber damit verschiebt man das Problem in ein Netzwerk, wo man auch nicht sicher sein kann, dass die entsprechenden Personen über die nötigen Kompetenzen verfügen. Gleichzeitig hat sich der dänische Staat damit seiner Verantwortung entledigt.
Ein anderes Problem betrifft die Tech-Daten. Woher stammen die Daten? Wir haben nicht viele Studien in Dänemark, aber in England und in den USA wurden mehrere Studien über den Zusammenhang der Entstehung von Daten und Marginalisierung durchgeführt. Dabei zeigte sich, dass es bei der Verwendung von Daten vorkommen kann, dass soziale Ungleichheiten in den Daten weitergeführt werden. Ein Beispiel dazu: Familien in benachteiligten Lebenslagen leben in Dänemark meist in bestimmten Wohngebieten. Aber wenn man sich die Daten dazu anschaut, ob die Bürger*innen in einem bestimmten Gebiet zugleich besonders gefährdet sind, ist das nicht notwendigerweise der Fall. Wenn man dies aber als Ausgangspunkt für die soziale Arbeit auf diesem Gebiet nimmt, reproduziert man vielleicht selbst entsprechende Daten. Und dann dokumentiert man nachher, dass man da einen Einsatz gemacht hat und dann läuft das in einer Spirale.
Eine Problematik ist, dass die Leute, die davon betroffen sind, selbst kein Mitspracherecht haben. Da kann also eine Situation entstehen, bei der die Daten bestimmen und die davon betroffenen Leute keinen Einfluss darauf haben.
FH: Vielen Dank, Andreas! Nun sind wir am Ende unseres Interviews. Wir sind dir sehr dankbar, dass Du uns Rede und Antwort gestanden hast und unsere vielen Fragen ausführlich beantwortet hast. Vielen herzlichen Dank und alles Gute, Andreas!