OpenAI hat das Fine-Tuning für GPT-4o gestartet, was es Entwicklern ermöglicht, die Leistung und Genauigkeit ihrer Anwendungen zu verbessern. Diese Funktion wurde am Dienstag (20. April) eingeführt und steht allen Entwicklern auf allen kostenpflichtigen Nutzungsebenen zur Verfügung, wie das Unternehmen in einem Blogbeitrag am Dienstag erklärte. Entwickler können GPT-4o jetzt mit benutzerdefinierten Datensätzen feinabstimmen, um für ihre spezifischen Anwendungsfälle eine höhere Leistung zu erzielen, so OpenAI in dem Beitrag. Durch das Fine-Tuning kann das Modell die Struktur und den Tonfall von Antworten anpassen oder komplexe domänenspezifische Anweisungen befolgen.
OpenAI hat die Fine-Tuning-Funktion “mit einer Handvoll” Partnern getestet, bevor sie eingeführt wurde. In einem Fall fand das Unternehmen heraus, dass ein Unternehmen, das einen KI-Software-Ingenieurassistenten anbietet, durch Feinabstimmung das Modell dazu bringen konnte, auf bestimmte Weise zu antworten und bestimmte Formate auszugeben. Feinabgestimmte Modelle bleiben vollständig unter Ihrer Kontrolle, und Sie haben die vollständige Eigentümerschaft an Ihren Geschäftsdaten, einschließlich aller Eingaben und Ausgaben, betonte OpenAI im Beitrag. Dies stellt sicher, dass Ihre Daten niemals geteilt oder zur Schulung anderer Modelle verwendet werden.
Die Nutzung von domänenspezifischem Training ist entscheidend für den Einsatz von generativer KI am Arbeitsplatz, wie PYMNTS im November 2023 berichtet hat. Einige Beobachter glauben, dass vertikal ausgerichtete KI-Modelle oder große Sprachmodelle und GPT-Systeme, die für branchenspezifische Anwendungsfälle auf validierten und überprüften Datensätzen trainiert werden und nach branchenspezifischen Richtlinien regelmäßig neu trainiert und aktualisiert werden, von Unternehmen mit ihren eigenen Daten feinabgestimmt werden können und den Unternehmen den sichersten und produktivsten Weg nach vorne bieten.
In der Zwischenzeit kündigte OpenAI im Juli an, dass es eine fortschrittliche Sprachfunktion für seine ChatGPT-Plattform eingeführt hat. Die Funktion, die das GPT-4o-Modell verwendet, bietet hyperrealistische Audioantworten und ermöglicht es Benutzern, Echtzeit-Gespräche ohne Verzögerung mit ChatGPT zu führen und es sogar mitten im Satz zu unterbrechen. Die Alpha-Version des Advanced Voice Mode wurde einer ausgewählten Gruppe von ChatGPT Plus-Abonnenten veröffentlicht, und das Unternehmen plant, mit dem breiteren Rollout für alle Premium-Benutzer im Herbst zu beginnen.
Hinterlasse eine Antwort