Eine Vielzahl von Personen aus verschiedenen Organisationen in verschiedenen Ländern arbeiten daran, die Überwachung der Risiken von KI zu koordinieren. Ein neues Projekt versucht, viele dieser Experten zusammenzubringen, um das lobenswerte Ziel voranzutreiben, einen globalen Konsens mit wissenschaftlicher Strenge zu schaffen. Das Projekt wird gemeinsam von Experten der Oxford Martin School der University of Oxford in Großbritannien und der Carnegie Endowment for International Peace in Washington, D.C. geleitet. Die Experten haben einen Bericht veröffentlicht, in dem sie ihre Beobachtungen und Empfehlungen darlegen.
Die Autoren des Berichts präsentieren sechs Ideen, die den Konzeptbereich beleuchten, in dem KI und internationale Beziehungen aufeinandertreffen. Zu den Ideen gehört, dass keine einzelne Institution oder kein einzelner Prozess die Welt zu einem wissenschaftlichen Konsens über die Risiken von KI führen kann. Die Vereinten Nationen sollten ihre vergleichbaren Vorteile nutzen, um regelmäßige wissenschaftliche Berichte zu produzieren, an denen die Mitgliedsstaaten stark beteiligt sind. Ein separates internationales Gremium sollte weiterhin jährliche Bewertungen erstellen, die sich eng auf die Risiken fortgeschrittener KI-Systeme konzentrieren, hauptsächlich von unabhängigen Wissenschaftlern geleitet.
Die Autoren betonen in ihrem Fazit den Aufruf zur Kombination eines von den Vereinten Nationen geleiteten Prozesses mit einem unabhängigen wissenschaftlichen Bericht. Diese Herangehensweise würde ihrer Meinung nach “die Stärken verschiedener Interessengruppen nutzen und potenzielle Fallstricke mindern”. Es wird die Notwendigkeit hervorgehoben, dass die UN mit ihrer einzigartigen Position und ihrem Zusammenkunftsgeschick die notwendige globale Legitimität und politische Einbindung bieten kann, während eine unabhhängige wissenschaftliche Spur die fortgesetzte Produktion zeitnaher, tiefgreifender Analysen der Risiken von fortschrittlicher KI sicherstellt.
Hinterlasse eine Antwort