FAIR-AI

Projektbild

Projektbeschreibung

FAIR-AI adressiert die Forschungslücke, die durch den Umgang mit gesellschaftsbezogenen Risiken in der Anwendung von KI entsteht. Insbesondere stehen dabei die Anforderungen des kommenden europäischen KIGesetzes und die Hindernisse bei seiner Umsetzung in der täglichen Entwicklung und Verwaltung von KI-basierten Projekten und seiner KI-gesetzkonformen Anwendung im Zentrum des Interesses. Diese Hindernisse sind vielschichtig und ergeben sich aus technischen Gründen (z. B. intrinsische technische Risiken des aktuellen maschinellen Lernens wie Datenverschiebungen in einer nicht-stationären Umgebung), technischen und Management-Herausforderungen (z. B. der Bedarf an hochqualifizierten Arbeitskräften, hohe Anfangskosten und Projektrisiken auf Projektmanagementebene) und soziotechnischen applikationsbezogenen Faktoren (z. B. die Notwendigkeit eines Risikobewusstseins bei der Anwendung von KI, einschließlich menschlicher Faktoren wie kognitive Verzerrungen bei der KI-gestützten Entscheidungsfindung). In diesem Zusammenhang betrachten wir die Erkennung, Überwachung und, wenn möglich, die Antizipation von Risiken auf allen Ebenen der Systementwicklung und -anwendung als einen Schlüsselfaktor. FAIR-AI verfolgt dabei eine Methodologie zur Entflechtung dieser Risikotypen. Anstatt eine allgemeine Lösung für dieses Problem zu fordern, verfolgt unser Ansatz eine Bottom-upStrategie, indem wir typische Fallstricke in einem spezifischen Entwicklungs- und Anwendungskontext auswählen, um eine Sammlung von lehrreichen, in sich geschlossenen Use-Cases, welche in Research Modulen umgesetzt werden, zu erstellen, um die intrinsischen Risken zu veranschaulichen. Wir gehen über den Stand der Technik hinaus und erforschen Möglichkeiten der Risiko-Entflechtung, -vorhersage und deren Integration in ein Empfehlungssystem, das in der Lage ist, aktive Unterstützung und Anleitung zu geben.

Bilder

Mitwirkende Mitarbeiter

Clemens Havas

Anna Lienbacher

Markus Tatzgern

Faith Young