Maschinelle Entscheidungsunterstützung In wohlfahrtsstaatlichen Institutionen: Nutzungsoptionen, Implikationen und Regulierungsbedarfe (MAEWIN)

Projektbeschreibung

Aufgrund rasanter technischer Fortschritte in den Feldern maschinellen Lernens, künstlicher Intelligenz (KI) und Big Data Analytics halten diese Technologien in immer mehr Bereichen unserer Gesellschaft Einzug. Damit entsteht die Möglichkeit, menschliches Entscheiden auch in Anwendungskontexten zu ersetzen, die komplexe Bewertungs- und Entscheidungssituationen umfassen, wie bspw. mit der Vohersagesoftware precobs des bayrischen Bundeskriminalamts (BKA) oder bei Scorings zur Bewertung der Kreditwürdigkeit. Auch im Arbeitsfeld Sozialer Dienste ist eine Anwendung maschineller Entscheidungsfindung denkbar, um bislang (statistisch/ maschinell) nicht auswertbare Datensätze zu erschließen und damit die Evidenz und Qualität von Entscheidungen zu erhöhen. Auf diese Weise könnten neue Formen von Wirkungsnachweisen wohlfahrtsstaatlicher Handlungsoptionen ermöglicht werden, wie sie gesellschaftlich und politisch zunehmend eingefordert werden. Gleichzeitig führt die Verlagerung der Entscheidung vom Menschen zur Maschine zum Verlust von Transparenz über Prozess und Kriterien der Entscheidungsfindung. Während das in privatwirtschaftlichen Anwendungsbereichen bereits problematisch ist, werden im Kontext (wohlfahrts-)staatlichen Handelns bzw. Entscheidens gegenüber Bürger*innen hierdurch demokratische Grundwerte gefährdet – insbesondere dann, wenn Entscheidungen nicht durch gesetzliche Vorgaben, klare Verfahrensregeln, formale Leistungsvoraussetzungen etc. determiniert sind, sondern eine fachliche Bewertung durch Fachkräfte erfordern, die Spielräume für professionelles Ermessen lässt. Besonderes Gewicht erfährt diese Problematik, wenn Entscheidungen folgenreich für die Lebensführung der Bürger*innen sind. Dies trifft regelmäßig für den Bereich wohlfahrtsstaatlicher Institutionen und Sozialer Dienste zu. Damit stellt sich die Frage, wie im Kontext wohlfahrtsstaatlicher Institutionen zukünftig die Potentiale maschineller Entscheidungsunterstützung genutzt werden können, um die Wissensbasis für Entscheidungen und Wirkungsnachweise zu erhöhen, ohne dabei demokratische Prinzipien, Datenschutz und Privatheit zu gefährden.

Das Projekt MAEWIN hat zum Ziel, die Chancen und Risiken automatisierter Verfahren zur Text- und Datenanalyse für die Generierung evidenz-gestützter Handlungsempfehlungen für das Feld Sozialer Dienste prototypisch zu explorieren. Der informatische Schwerpunkt liegt daher neben der ontologisch fundierten Textanalyse auf dem Einsatz von Methoden aus der Argumentationstechnologie zur Rationalisierung und Kontextualisierung von Handlungsempfehlungen. Wo reine „Big-Data“-Verfahren zu einer Entmündigung der Entscheider*innen und damit in letzter Konsequenz einer Auslieferung der Bürger*innen an undurchsichtige Verfahren der Informationstechnologie führen, soll hier ein Beitrag zur Erhöhung der Entscheidungsqualität bei gleichzeitiger vollständiger Transparenz und Verlässlichkeit des Verfahrens ermöglicht werden. Auf sozialwissenschaftlicher Seite geht es unter Einbeziehung professionstheoretischer, wissenssoziologischer, arbeitswissenschaftlicher, ethischer und rechtlicher Aspekte um die Untersuchung, wie auf der Grundlage der Ergebnisse dieser maschinellen Wissensverarbeitung eine Einbindung in den fachlichen Entscheidungspraxen möglich ist, welche die Wissensbasis und die Qualität der Entscheidungsfindung erhöht und gleichzeitig gegenüber den betroffenen Bürger*innen eine Transparenz bezüglich der Entscheidungsregeln und –verfahren herstellt, die deren demokratische Rechte sichert.

 

Promotionen im Projekt MAEWIN

Promotionsprojekt 1:
Angelika Maier studierte im Bachelor Germanistik mit Texttechnologie als Nebenfach und im Master Linguistik mit dem Profil Computerlinguistik. In ihrer Masterarbeit untersuchte sie inkrementelle End-of-Turn Erkennung für Dialogsysteme. Gefördert durch ein Stipendium des Cognitive Interaction Technology Excellence Center (CITEC) der Universität Bielefeld, arbeitet sie seit Juli 2016 als Doktorandin in der Semantic Computing Group des CITEC. Sie untersucht die Extraktion von argumentativen Zusammenhängen aus natürlich-sprachlichen Texten. Im Projekt MAEWIN wird sie für die prototypische Entwicklung eines Systems zur automatischen Entscheidungsunterstützung verantwortlich sein. Grundsätzlich sollen dabei alle betroffenen Parteien ermächtigt werden, eine konkrete Entscheidung nachzuvollziehen, selbst, wenn sie mit dieser nicht übereinstimmen. Um dies zu garantieren, soll das System zur Entscheidungsunterstützung mögliche Pro- und Contra-Argumente im Zusammenhang mit einer Empfehlung bereitstellen.

Promotionsprojekt 2:
Diana Schneider studierte zunächst Philosophie und Germanistik an der Universität Potsdam (B.A.). Anschließend war sie Studentin im interdisziplinären Studiengang Kultur und Technik mit Schwerpunkt Technik- und Technologieentwicklung im öffentlichen Diskurs an der Brandenburgischen Technischen Universität Cottbus-Senftenberg. In ihrer Masterarbeit analysierte sie auf Basis von Honneths Anerkennungstheorie die (institutionellen) Anerkennungsstrukturen von Patientinnen und Patienten mit chronischen, nicht spezifischen Rückenschmerzen in ihrem Behandlungsumfeld. Von August 2015 bis Juli 2017 war sie als wissenschaftliche Hilfskraft im BMBF-Forschungsprojekt „PartNIPD: Partizipation in technisch-gesellschaftlichen Innovationsprozessen mit fragmentierter Verantwortung: das Beispiel nicht-invasive Pränataldiagnostik“ am Institut Mensch, Ethik und Wissenschaft in Berlin tätig. Im Tandem des MAEWIN-Projekts wird Diana Schneider für die sozialwissenschaftliche Expertise des interdisziplinären Projekts zuständig sein und sich u.a. mit Fragen der Agency von Big-Data-Technologien und dem Zusammenhang von Transparenz und Legitimität von Entscheidungen auseinandersetzen. Ziel der Auseinandersetzung wird es sein, eine Exploration bezüglich der Chancen und Risiken von maschinellen Entscheidungssituationen im Feld Sozialer Dienste zu erhalten sowie dort Regulierungsbedarfe zu erkennen, wo Grundwerte der Demokratie, des Datenschutzes und der Privatheit durch den Einsatz dieser maschinellen Entscheidungsunterstützungen gefährdet werden (könnten).