Die nächste Version des OpenAI-Sprachmodells GPT-5 steht kurz vor der Veröffentlichung. Es wird erwartet, dass dieses Modell OpenAI an die Spitze der KI-Entwicklung setzen wird oder es in die Mittelklasse drängt. Einige Kunden haben bereits Demos der neuen Version erhalten, und es wird spekuliert, dass erhebliche Verbesserungen bevorstehen.
Während Entwickler auf die Möglichkeit warten, GPT-5 zu testen, haben einige neue Methoden entwickelt, um ihre KI aufzubauen, ohne ein völlig neues Modell zu benötigen. Foundry, ein Startup unter der Leitung von CEO Jared Quincy Davis, nutzt neue Strategien, um die Nutzung von Grafikprozessoren für KI-Berechnungen effizienter zu gestalten. Durch die Zyklierung von KI-Arbeitslasten über GPUs soll die GPU-Nutzung maximiert werden, was zu kostengünstigerem Computing führt.
Die Methoden von Foundry konzentrieren sich darauf, große Sprachmodelle wie GPT-4 zu verbessern, indem sie diese Modelle wiederholt aufrufen und die Antworten analysieren, um die beste Antwort auszuwählen. Dieser Ansatz, der als “Compound AI Systems” kategorisiert wird, wurde in einem Forschungspapier von Davis sowie seinen Co-Autoren letzten Monat erläutert. Durch die Anwendung dieser Methode konnten sie die Leistung von GPT-4 signifikant verbessern, besonders bei schwierigen mathematischen Problemen.
Das Konzept des “Bootstrapping” zur Verbesserung von Grundlagenmodellen ist möglicherweise teurer, aber die verbesserten Ergebnisse könnten die Kosten rechtfertigen. Davis betonte, dass Investitionen in Training und Iteration sich langfristig auszahlen könnten. Durch eine kritische Betrachtung der Gesamtkosten könnten sich Investitionen in die KI-Entwicklung als rentabel erweisen.
Hinterlasse eine Antwort