In der Realität verläuft der Fortschritt ungleichmäßig und ist weit davon entfernt, abgeschlossen zu sein. Es gibt keinen einheitlichen Ansatz für die Regulierung künstlicher Intelligenz (KI) in allen Rechtsprechungen, und einige Länder haben ihre Regelungen bereits vor dem Start von ChatGPT Ende 2022 eingeführt. Da KI sich verbreitet, müssen viele Regulierungsbehörden ihre bisherige Arbeit aktualisieren und möglicherweise ausweiten. Für Investoren erhöht die regulatorische Unsicherheit die anderen Risiken von KI. Um diese Risiken zu verstehen und bewerten zu können, ist es hilfreich, einen Überblick über die KI-Geschäftswelt, ethische und regulatorische Landschaft zu haben.
Künstliche Intelligenz (KI) beinhaltet eine Vielzahl von Technologien, die darauf abzielen, Aufgaben, die normalerweise von Menschen erledigt werden, auf eine menschenähnliche Weise auszuführen. KI und Geschäft können sich durch generative KI überschneiden, die verschiedene Formen der Inhalteerstellung umfasst, darunter Video, Sprache, Text und Musik, sowie große Sprachmodelle (LLMs), eine Untergruppe der generativen KI, die sich auf die natürliche Sprachverarbeitung konzentriert. LLMs dienen als Grundmodelle für verschiedene KI-Anwendungen – wie Chatbots, automatisierte Inhalteerstellung und die Analyse und Zusammenfassung großer Informationsmengen – die Unternehmen zunehmend in ihrem Kundenengagement einsetzen.
Wie viele Unternehmen festgestellt haben, können KI-Innovationen potenziell markenschädigende Risiken mit sich bringen. Diese können aus den in den Daten enthaltenen Verzerrungen resultieren, auf denen LLMs trainiert sind, und haben beispielsweise dazu geführt, dass Banken versehentlich Minderheiten bei der Genehmigung von Hypothekendarlehen diskriminierten, und dass ein US-Krankenversicherungsanbieter einer Sammelklage gegenüberstand, die behauptete, dass der Einsatz eines KI-Algorithmus zu unrechtmäßigen Ablehnungen von Langzeitpflegeansprüchen für ältere Patienten führte. Voreingenommenheit und Diskriminierung sind nur zwei der Risiken, die Regulierer ins Visier nehmen und die auf dem Radar von Investoren sein sollten; andere umfassen geistige Eigentumsrechte und Datenschutzüberlegungen hinsichtlich von Daten. Risikominderungsmaßnahmen sollten ebenfalls geprüft werden.
Der AI-Regularien-Umfang entwickelt sich in unterschiedlicher Weise und Geschwindigkeit in verschiedenen Rechtsprechungen. Die jüngsten Entwicklungen umfassen das Artificial Intelligence Act der Europäischen Union (EU), das voraussichtlich um etwa Mitte 2024 in Kraft treten wird, und die Reaktion der britischen Regierung auf einen Konsultationsprozess, der letztes Jahr durch die Veröffentlichung des White Papers zur AI-Regulierung der Regierung ausgelöst wurde. Beide Bemühungen verdeutlichen, wie sich die regulatorischen Ansätze für KI unterscheiden können.
Investoren sollten unserer Ansicht nach nicht nur in die Details der KI-Regulierungen jeder Rechtsprechung eintauchen, sondern sich auch damit vertraut machen, wie Rechtsprechungen KI-Probleme unter Verwendung von Gesetzen lösen, die vorausgehen und außerhalb von KI-spezifischen Regeln stehen. Fundamentalanalyse und Engagement der Emittenten – die Grundlagen verantwortungsbewusster Investitionen – sind entscheidend für diesen Forschungsbereich. Die Fundamentalanalyse sollte nicht nur die KI-Risikofaktoren auf Unternehmensebene beleuchten, sondern auch entlang der Wertschöpfungskette und über die regulatorische Umgebung hinweg, wobei Erkenntnisse gegen Kernprinzipien für verantwortungsbewusste KI getestet werden sollen.
Hinterlasse eine Antwort