Databricks: Warum Finserv jetzt Generative KI annehmen sollte

Databricks: Warum Finserv jetzt Generative KI annehmen sollte

Generative künstliche Intelligenz (KI) hat das Potenzial, die Produktivität im Bankensektor um bis zu 30% zu steigern, so Russ. Laut einer kürzlich durchgeführten Umfrage halten 68% der Führungskräfte der Branche eine Plattform, die die Einführung neuer Technologien ermöglicht, für sehr wichtig. Es ist also offensichtlich, dass generative KI die Zukunft der Finanzbranche umschreibt. Wenn Institutionen jedoch von dieser Technologie profitieren wollen, müssen sie viele Faktoren in ihre Einführungsstrategie einbeziehen, von der Nutzung der richtigen Daten über die Einhaltung von Vorschriften bis hin zur Stärkung der Datenintelligenz der Mitarbeiter.

Bei der Adoption von Learning Language Models (LLM) ist die Größe entscheidend. Kleine, maßgeschneiderte Modelle sind ebenso leistungsstark. Finanzinstitute benötigen ein kleineres und sichereres LLM als die großen Verbraucher-Chatbots, die oft mit KI in Verbindung gebracht werden. Es ist wichtig, eine Lösung zu nutzen, die auf die spezifischen Bedürfnisse einer Organisation zugeschnitten ist, um beispielsweise Risiken zu bestimmen, Betrug zu minimieren oder personalisierte Kundenerlebnisse zu bieten.

Benutzerdefinierte Open-Source-Modelle sind eine Option, um ein LLM an individuelle Anforderungen anzupassen. Durch das Training des Modells auf proprietären Unternehmensdaten sind maßgeschneiderte Modelle kostengünstiger und erzeugen relevantere und genauere Ergebnisse. Ein Beispiel für den Einsatz eines maßgeschneiderten LLM wäre die Analyse des Kaufverhaltens von Verbrauchern zur Erkennung von verdächtigen oder betrügerischen Handlungen, oder die Verwendung spezifischer Algorithmen zur Bestimmung der Kreditwürdigkeit von Verbrauchern.

Im Vergleich zu großen, allgemeinen Modellen hängt die Leistung von kleineren, maßgeschneiderten Modellen in erster Linie von der Qualität der Daten ab. Generell sind große Modelle auf einem umfangreichen Datensatz trainiert, der oft Daten von geringer Qualität enthält. Dies kann zu Halluzinationen oder Ungenauigkeiten führen, was insbesondere in der stark regulierten Finanzbranche katastrophale Auswirkungen haben könnte. Durch die Nutzung eigener LLM, die auf eigenen Daten trainiert sind, können Unternehmen regulatorischen Anforderungen entsprechen und sichere Experimente durchführen, ohne Daten mit Dritten teilen zu müssen. Dies ermöglicht es den Unternehmen, den größten Nutzen aus einem Modell zu ziehen, das auf ihren eigenen privaten Daten basiert.