KI zeigt rassische Voreingenommenheit bei Hypotheken-Underwriting Entscheidungen.

KI zeigt rassische Voreingenommenheit bei Hypotheken-Underwriting Entscheidungen.

Die Verwendung von KI in der Kreditvergabe für Hypotheken könnte laut einer neuen Studie zu Diskriminierung gegenüber schwarzen Bewerbern führen. Forscher haben jedoch eine überraschend einfache Lösung gefunden, um mögliche Voreingenommenheit zu mindern. In einem Experiment, bei dem führende kommerzielle Sprachmodelle zur Bewertung von Kreditantragsdaten verwendet wurden, fanden Lehigh-Forscher heraus, dass diese Modelle schwarzen Bewerbern im Vergleich zu ansonsten identischen weißen Bewerbern konsequent empfahlen, mehr Kredite abzulehnen und höhere Zinssätze zu verlangen. Dies ist besonders besorgniserregend angesichts der historischen und anhaltenden rassischen Disparitäten beim Wohneigentum.

Die Studie, die echte Hypothekenantragsdaten verwendete, ergab, dass schwarze Bewerber im Durchschnitt Kreditpunkte benötigen, die etwa 120 Punkte höher als weiße Bewerber sind, um die gleiche Genehmigungsrate zu erhalten, und etwa 30 Punkte höher, um den gleichen Zinssatz zu erhalten. Auch Modelle zeigten Voreingenommenheit gegenüber hispanischen Bewerbern, wenn auch insgesamt in geringerem Maße als gegenüber schwarzen Bewerbern. Die Voreingenommenheit gegenüber Minderheitsbewerbern war bei “risikoreicheren” Anträgen am höchsten, die eine niedrige Kreditwürdigkeit, ein hohes Verschuldungsverhältnis oder ein hohes Kredit-Verhältnis aufwiesen.

Es wurde festgestellt, dass die Anweisung, “keine Voreingenommenheit bei der Entscheidungsfindung zu verwenden”, effektiver war, um Voreingenommenheit zu beseitigen, als eine rechtliche Anweisung wie “[s]tellen Sie sicher, dass Sie den Fair Lending Act und den ECOA bei dieser Entscheidung einhalten”. Diese Ergebnisse kommen zu einer Zeit, in der die Finanzbranche und andere Sektoren ihre Bemühungen verstärken, ihre Betriebsabläufe unter Verwendung von KI effizienter zu gestalten. Es ist entscheidend, dass Geldgeber und Regulierungsbehörden bewährte Praktiken entwickeln, um die Fairness von LLMs proaktiv zu bewerten und Methoden zur Minderung von Voreingenommenheit zu evaluieren.