Whitepaper von TRUST YOUR AI
Immer mehr Entscheidungen werden heute entweder mit Hilfe von Künstlicher Intelligenz (KI) oder von der KI allein getroffen. Daher ist es wichtig, dass die KI-Algorithmen „fair“ sind. Die Initiative TRUST YOUR AI – gegründet von Know-Center, SGS, TU Graz und Universität Graz – hat zu einer möglichen Zertifizierung ein Whitepaper verfasst. Hier werden Fragen rund um die Fairness von KI-Anwendungen erörtert, mit besonderem Augenmerk darauf, wie diese unabhängig bewertet und anschließend zertifiziert werden kann und warum eine KI-Anwendung nicht im allgemeinen Sinne als „fair“ oder „unfair“ eingestuft werden kann.
Mit der zunehmenden Popularität der Künstlichen Intelligenz (KI) wachsen auch die Bedenken über ihre Anwendung. Einer der umstrittensten Punkte ist, dass KI-basierte Anwendungen zu einem ungerechten Ergebnis führen könnten, z. B. indem sie Männer gegenüber Frauen oder Menschen einer bestimmten ethnischen Zugehörigkeit gegenüber Menschen anderer ethnischer Zugehörigkeit bevorzugen. Um derartige Probleme zu beheben, gilt es, Wege zu finden, um die Fairness einer KI-basierte Anwendung zu bewerten. Kein leichtes Unterfangen – denn Fairness per se ist schwer zu definieren ist.
Was ist fair?
Die meisten Menschen haben ein gutes Gespür für Fairness und – mehr noch – für Ungerechtigkeit, wenn es um die Bewertung bestehender Ergebnisse geht. Wenn zum Beispiel ein Algorithmus, der für Bewerbungen verwendet wird, konsequent Bewerbungen von Frauen ablehnt, würden die meisten Menschen ihn als unfair bezeichnen. Die Frage „Was ist fair?“ ist jedoch viel schwieriger zu beantworten, und die Menschen sind in der Regel weniger bereit, darauf schnelle und präzise Antworten zu geben. Eine mögliche Antwort könnte lauten:
„Der Algorithmus sollte eine gleiche Anzahl von Männern und Frauen auswählen.“
Intuitiv klingt das fair. Was aber, wenn es deutlich mehr männliche als weibliche Bewerber*innen gibt? 10 von 10 Frauen und 10 von 50 Männern würden den meisten Menschen ungerecht erscheinen. Was aber, wenn es große Unterschiede im Bildungshintergrund zwischen weiblichen und männlichen Bewerber*innen gibt? Was wäre in diesem Fall ein gerechtes Ergebnis? Schon dieses einfache Beispiel zeigt, wie schwierig es ist, objektive Wege zu finden, um etwas als „gerecht“ zu zertifizieren.
Um zu sehen, welchen Weg es dennoch gibt, die Fairness einer KI zu zertifizieren, folgen Sie dem Link.
[fusion_button link=“https://trustyour.ai/whitepaper/certifying-fairness-of-ai-applications-an-impossible-task/“ title=““ target=“_blank“ link_attributes=““ alignment_medium=““ alignment_small=““ alignment=““ modal=““ hide_on_mobile=“small-visibility,medium-visibility,large-visibility“ sticky_display=“normal,sticky“ class=““ id=““ color=“custom“ button_gradient_top_color=“var(–awb-color6)“ hue=““ saturation=““ lightness=““ alpha=““ button_gradient_bottom_color=““ button_gradient_top_color_hover=““ button_gradient_bottom_color_hover=““ gradient_start_position=““ gradient_end_position=““ gradient_type=““ radial_direction=““ linear_angle=“180″ accent_color=“#ffffff“ accent_hover_color=““ type=““ bevel_color=““ bevel_color_hover=““ border_top=““ border_right=““ border_bottom=““ border_left=““ border_radius_top_left=““ border_radius_top_right=““ border_radius_bottom_right=““ border_radius_bottom_left=““ border_color=““ border_hover_color=““ size=““ padding_top=““ padding_right=““ padding_bottom=““ padding_left=““ fusion_font_family_button_font=““ fusion_font_variant_button_font=““ font_size=““ line_height=““ letter_spacing=““ text_transform=““ stretch=“default“ margin_top=““ margin_right=““ margin_bottom=““ margin_left=““ icon=““ icon_position=“left“ icon_divider=“no“ animation_type=““ animation_direction=“left“ animation_speed=“0.3″ animation_offset=““]Lesen Sie hier das gesamte Whitepaper[/fusion_button]