Dieses Transkript wurde zur besseren Verständlichkeit bearbeitet. Der Forscher Art Caplan von der Abteilung für medizinische Ethik an der NYU Grossman School of Medicine hatte kürzlich aus Spaß eine Interaktion mit OpenAI’s Chatbot. Er bat den Chatbot, seinen Nachruf zu verfassen, was dieser recht gut erledigte. Obwohl der Chatbot viele wichtige Ereignisse und Interessen von Caplan festhielt, gab es dennoch einige Fehler, wie das Übersehen der Tatsache, dass er noch am Leben war, oder falsche Angaben zu seinem Geburtsort. Caplan schätzte die Genauigkeit des Chatbots auf etwa 85%-90%.
Der Vorfall mit dem Chatbot brachte Caplan dazu, ein kürzlich erschienenes Papier im AMA Journal of Ethics zu erwähnen, das die Rolle von künstlicher Intelligenz (AI) in Ethik-Komitees oder Ausschüssen für Menschenversuche anspricht. Er erwähnte, dass AI als Ressource bei der Überprüfung von Präzedenzfällen, gesetzlichen Anforderungen und ethischen Entscheidungen in Zukunft eine wichtige Rolle spielen wird.
Caplan merkt an, dass AI möglicherweise noch nicht bereit ist, tatsächlich Abstimmungen in Ethik-Komitees durchzuführen. Sowohl aufgrund von Fehlern in der Entscheidungsfindung als auch aufgrund der menschlichen Eigenschaften wie Empathie und Mitgefühl, die AI möglicherweise fehlen. Er betont, dass ethische Entscheidungsprozesse nicht nur auf Regeln und Algorithmen basieren, sondern auch auf Verhandlungen und Kompromissen, um eine für alle akzeptable Lösung zu finden.
Die Fähigkeit von AI, komplexe Kompromisse zu erzielen, wird von Caplan angezweifelt. Seiner Meinung nach ist es fraglich, ob AI jemals die menschlichen Aspekte von Ethikentscheidungen, wie Empathie und gegenseitigen Respekt, vollständig nachahmen kann. Er schlägt vor, dass AI möglicherweise zu schnell auf Richtlinien reagiert, anstatt langwierige Gespräche und Kompromisse zu suchen. Caplan schließt mit der Idee ab, dass die Zukunft zeigen wird, ob AI jemals in der Lage sein wird, komplexe ethische Entscheidungen zu treffen.
Hinterlasse eine Antwort