Das neueste JAIS Large Language Model (LLM), JAIS 70B, wurde heute von Inception veröffentlicht, einem Unternehmen der G42, das sich auf die Entwicklung von fortgeschrittenen KI-Modellen und -Anwendungen spezialisiert hat, die alle als Service bereitgestellt werden. Mit 70 Milliarden Parametern wurde das JAIS 70B-Modell für Entwickler von auf Arabisch basierenden natürlichen Sprachverarbeitungslösungen (NLP) entwickelt und verspricht, die Integration von generativen KI-Diensten in verschiedenen Branchen zu beschleunigen, um die Fähigkeiten im Kundenservice, bei der Inhaltserstellung und der Datenanalyse zu verbessern.
Das Unternehmen hat auch eine umfassende Suite von JAIS-Grund- und Feinabstimmungsmodellen vorgestellt; 20 Modelle, in 8 Größen von 590M bis 70B Parametern, speziell für Chat-Anwendungen feinabgestimmt, trainiert mit bis zu 1,6T Tokens aus arabischen, englischen und Code-Daten. Diese umfangreiche Veröffentlichung bietet jetzt eine Vielzahl von Tools, darunter das erste arabische Modell, das klein genug ist, um auf einem Laptop ausgeführt zu werden, um sowohl kleine, recheneffiziente Modelle für gezielte Anwendungen als auch fortgeschrittene Modellgrößen für präzise Unternehmensanwendungen zu liefern.
Dr. Andrew Jackson, CEO von Inception, sagte: “KI ist inzwischen eine bewährte wertschöpfende Kraft, und große Sprachmodelle sind an vorderster Front des Anstiegs der KI-Adoption. JAIS wurde geschaffen, um das arabische Erbe, die Kultur und Sprache zu bewahren und den Zugang zur KI zu demokratisieren. Die Veröffentlichung von JAIS 70B und dieser neuen Modellfamilie unterstreicht unser Engagement, das hochwertigste KI-Grundmodell für arabische Nationen bereitzustellen.”
Neha Sengupta, Principal Applied Scientist bei Inception, sagte: “Für Modelle mit bis zu 30 Milliarden Parametern haben wir JAIS erfolgreich von Grund auf trainiert und haben dabei konsequent adaptierte Modelle in der Community übertroffen. Jedoch war für Modelle mit 70 Milliarden Parametern und mehr die Rechenkomplexität und Umweltbelastung des Trainings von Grund auf signifikant.”
Hinterlasse eine Antwort