Inception 70B ist für Arabisch NLP bestimmt und beschleunigt Generative KI in Kundenservice, Inhalten und Daten. Inception, ein Unternehmen von G42, das sich auf die Entwicklung fortschrittlicher KI-Modelle und Anwendungen als Service konzentriert, hat die neueste Ergänzung zu seiner großen Sprachmodell (LLM) Palette eingeführt, das Inception 70B.
Das 70-Milliarden-Parameter-Modell, Inception 70B, ist für Entwickler von auf Arabisch basierenden Natural Language Processing (NLP) Lösungen konzipiert und zielt darauf ab, die Integration von generativen KI-Diensten in verschiedenen Sektoren zu beschleunigen, um die Fähigkeiten im Kundenservice, der Inhaltserstellung und der Datenanalyse zu verbessern.
Das Unternehmen hat auch eine umfassende Suite von Inception-Grund- und Feinabstimmungsmodellen vorgestellt; 20 Modelle, in 8 Größen, mit Parametern von 590M bis 70B, speziell für Chat-Anwendungen feinabgestimmt und auf bis zu 1,6T Tokens von Arabisch, Englisch und Code-Daten trainiert.
Diese umfangreiche Veröffentlichung bietet jetzt eine Vielzahl von Tools, darunter das erste arabische Modell, das klein genug ist, um auf einem Laptop ausgeführt zu werden, und sowohl kompakte, recheneffiziente Modelle für gezielte Anwendungen als auch fortgeschrittene Modellgrößen für eine präzise Unternehmensebene.
Laut Dr. Andrew Jackson, CEO von Inception, ist KI mittlerweile eine bewährte wertsteigernde Kraft, und große Sprachmodelle sind an vorderster Front des KI-Adoptionsanstiegs. Er erklärte, dass JAIS geschaffen wurde, um das arabische Erbe, die Kultur und die Sprache zu bewahren und den Zugang zur KI zu demokratisieren. Darüber hinaus betonte er, dass Inception mit der Veröffentlichung von JAIS 70B und dieser neuen Modellfamilie ihr Engagement für die Bereitstellung des hochwertigsten KI-Grundmodells für arabische Länder bekräftigt.
Neha Sengupta, Principal Applied Scientist bei Inception, erklärte, dass sie für Modelle bis zu 30 Milliarden Parametern erfolgreich JAIS von Grund auf trainiert haben und dabei konsequent adaptierte Modelle in der Community übertroffen haben. Sie räumte jedoch ein, dass bei Modellen mit 70 Milliarden Parametern und mehr die rechnerische Komplexität und Umweltauswirkungen des Trainings von Grund auf signifikant waren.
Hinterlasse eine Antwort