4. Treffen der Arbeitsgruppe Ethik, KI & Menschen mit Behinderung

06.10.2021 | Neuigkeiten

Am 06. Oktober 2021 fand die vierte Sitzung der Arbeitsgruppe Ethik, Künstliche Intelligenz (KI) & Menschen mit Behinderung (kurz: AG Ethik) als virtuelle Arbeitssitzung statt. Die projektbegleitende Arbeitsgruppe setzte so ihre im November 2020 begonnene Auseinandersetzung mit ethischen Fragestellungen zum Einsatz von Künstlicher Intelligenz in der beruflichen Rehabilitation fort.

In der vierten Sitzung standen Ansätze und Methoden zur ethischen Bewertung von KI-basierten Assistenztechnologien im Vordergrund. Dafür wurden zunächst verschiedene Ansätze der (ethischen) Technikbewertung aufgezeigt:

Im Anschluss wurde ein Konzept mit Bausteinen aus den zuvor genannten ethischen Bewertungsansätzen vorgestellt, wie bei einer ethischen Bewertung KI-basierter Assistenzsysteme im Kontext der beruflichen Rehabilitation von Menschen mit Behinderung vorgegangen werden kann. Teile dieses Konzepts wurden vor und in der vierten Sitzung mit der Arbeitsgruppe entlang eines konkreten KI-Anwendungsszenarios - der Erprobung des EmmA Biofeedbacktrainings im Lern- und Experimentierraum im Berufsförderungswerk Koblenz - erprobt. Nach einer Vorstellung des Emma Biofeedbacktrainings und des Lern- und Experimentierraums wurde ein Workshop durchgeführt, der an das MEESTAR-Vorgehen angelehnt ist. In einem ersten Workshop-Teil wurde ein Ethik-Mapping vorgenommen, mit dem die ethischen Problemfelder des KI-Anwendungsszenarios aus Sicht der Nutzer*innen (Ebene Individuum), der anwendenden Organisationen (Ebene Organisation) und der Gesellschaft (Ebene Gesellschaft) identifiziert und priorisiert wurden. In einem zweiten Workshop-Teil wurden für die priorisierten Problemfelder Lösungsmöglichkeiten in Form von Anforderungen und Maßnahmen diskutiert. Bei der Moderation und Durchführung des Workshops wurde das Projektteam durch Prof. Dr. Karsten Weber unterstützt, der MEESTAR mitentwickelt hat.

EmmA Biofeedbacktraining

Lern- und Experimentierraum im Berufsförderungswerk Koblenz

Prof. Dr. Karsten Weber

Im Workshop wurden unter anderem folgende Problemfelder und Lösungsansätze in den sechs Ethik-Dimensionen Selbstbestimmung & Autonomie, Diversität & Barrierefreiheit, Teilhabe & Partizipation, Privatsphäre & Datenschutz, Sicherheit & Zuverlässigkeit und Transparenz & Aufklärung diskutiert.

Im Bereich Selbstbestimmung & Autonomie wurde als technische Lösung für eine bessere Adressierung von Nutzer*innenbedürfnissen vorgeschlagen, dass das System Konfigurationsmöglichkeiten bzgl. des Avatars, des Hintergrunds und anderer Oberflächenparameter bekommt, die gegebenenfalls durch die Nutzer*innen allein oder durch Nutzer*innen und Betreuer*innen gemeinsam konfiguriert werden können. Außerdem sei die Selbstbestimmung von Menschen mit Behinderung beim Einsatz von KI-basierten Assistenzsystemen im betrieblichen Kontext nicht immer möglich, sondern würde vor allem durch Mitbestimmungsstrukturen wie den Betriebsrat realisiert.

Im Bereich Diversität & Zugänglichkeit wurde die Gestaltung des Avatars und der Trainingsumgebung dahingehend hinterfragt, ob diese der Diversität gerecht werde. Es wurden technische Anpassungsmöglichkeiten des Avatars diskutiert, bspw.in puncto Sprache oder stereotyper äußerer Erscheinung.

Im Bereich Teilhabe & Partizipation wurde angemerkt, dass eine stationäre Ausgestaltung der Technologie Zugangsbarrieren schaffen könnte und es wurde das Angebot einer mobilen Version zugunsten einer invididuellen Nutzbarkeit vorgeschlagen, da diese die Selbstbestimmung und Teilhabe von Menschen mit Behinderung insgesamt verbessern könnte. Darüber hinaus wurde eingebracht, dass sich langfristig die „Arbeitsteilung“ bzw. das Verhältnis zwischen dem Biofeedbacktraining und der psychologischen Begleitung verändern könnte, da mit Assistenztechnologien tendenziell auch Rationalisierungstendenzen einhergehen können. Es wurde angebracht, dass Technologien grundsätzlich immer ergänzend eingesetzt werden sollten und es immer darum gehen sollte, dass Technologien das Wohlbefinden von Menschen erhöhen. Dazu gehöre auch die langfristige Sicherstellung einer professionellen Begleitung durch Therapeuten. Ein Ansatz könnte sein, dass KI-Entwickler*innen Anforderungen für Einsatzszenarien ihrer KI-Technologien definieren, zu denen bei EmmA die professionelle Begleitung durch einen Therapeuten zählen könnte.

Im Rahmen von Privatsphäre und Datenschutz wurde im Wesentlichen über den Ablauf und beteiligte Personen diskutiert. Da die Daten am Ende einer Sitzung gemeinsam von Nutzer*innen und Fachkräften analysiert werden, sollten diese nicht von Personen ausgewertet werden, die einen direkten Arbeitsbezug haben. Stattdessen sollten die Daten eher von Personen mit psychologischem Hintergrund oder durch weitere Vertrauenspersonen analysiert und durch diese begleitet werden. In diesem Zusammenhang wurde auch angemerkt, dass es sich bei dem Biofeedbacktraining um ein therapeutisches Assistenzsystem handele, dessen Nutzung durch medizinische Fachpersonal veranlasst werden müsse. 

Im Bereich Sicherheit & Zuverlässigkeit wurde die Wirksamkeit und Schadensfreiheit des Biofeedbacks diskutiert und wie man diese hausintern erheben könne. Vor allem sei auszuschließen, dass die Anwendung ggf. negative Implikationen für die Anwender*innen haben kann und Krankheitsbilder wie zum Beispiel Depressionen sich eventuell verstärken können. Wenn mit dem Einsatz des Biofeedbacktrainings psychologische Schäden (im rechtlichen Sinne) einhergehen könnten, seien nach dem kürzlich veröffentlichten AI Act, dem Vorschlag der Europäischen Kommission zur Regulierung Künstlicher Intelligenz, auch Transparenzpflichten für Entwickler*innen verbunden. Vor der Anwendung des Biofeedbacktrainings sei in jedem Falle eine genaue Einschätzung aus Sicht eines/einer Therapeut*in sowie eine Begleitung während der Nutzung nötig. Daher bedürfe es für Therapeut*innen eine gute Einführung im Umgang mit der Technologie. Zur Erhebung der Wirksamkeit wurde das Instrument einer Kontrollgruppe eingebracht. Dies sei sinnvoll, um besser einschätzen zu können, ob andere Personen mit diverseren Behinderungsbildern vom Training ebenfalls profitieren könnten. Am Beispiel von Nutzer*innen mit Autismus wurde angebracht, dass eine reduzierte Darstellung des Avatars sinnvoll und ausschlaggebend für dessen Akzeptanz sein könne. 

Im Bereich Transparenz & Aufklärung wurde angemerkt, dass die Zielsetzungen sowie die zu technischen Möglichkeiten u.a. der Datenerhebung und -speicherung KI-basierter Assistenzsysteme wie EmmA klar zu benennen seien. Auf organisationaler Ebene müssten hierfür Informationen, Absichten und Hintergründe des Biofeedbacktrainings innerhalb der Organisationen vermittelt werden, um Fragen oder Bedenken frühzeitig zu klären und damit zu mehr Akzeptanz beizutragen. Außerdem sollten vor der Nutzung Aufklärungsgespräche zum Nutzen und zur Wirkweise des Biofeedbacks als feste Prozesse in der Organisation verankert werden. Für die berufliche Rehabilitation sei hierfür ein Beratungssystem für innovative Technologien notwendig. Die technischen Beratungsdienste könnten hier in Zukunft als Mittler zwischen Angeboten auf dem Markt und den Rehabilitationsträgern eine wichtige Rolle einnehmen. Diese könne unterstützt werden durch die Entwicklung von Standards für die Vermittlung der technischen Prozesse in leichter Sprache sowie Zertifikate für technische Transparenz. 

Die erarbeiteten Ergebnisse werden ausgewertet, aufbereitet und fließen in die weitere Arbeit der AG Ethik ein. Den Abschluss des Treffens bildete ein Ausblick auf die fünfte und letzte Sitzung, die im November 2021 stattfinden wird, sowie auf ein Ergebnispapier zu der Arbeit der AG Ethik und des Projekts KI.ASSIST zum Thema Ethik, KI und Menschen mit Behinderung. In der letzten Sitzung wird das Thema digitale Verantwortung im Vordergrund stehen, ausgehend vom Produktlebenszyklus KI-basierter Assistenzsysteme werden Einflussmöglichkeiten der beteiligten Akteure diskutiert und es werden Empfehlungen für einen ethischen Einsatz von Künstlicher Intelligenz aus Sicht der Inklusion von Menschen mit Behinderung erarbeitet.

Die Kommentarfunktion ist für diesen Artikel deaktiviert.