Andrew Ng’s DeepLearning.AI in Zusammenarbeit mit Google Cloud hat einen neuen Kurs mit dem Namen “Large Multimodal Model Prompting with Gemini” gestartet, mit dem Ziel, den Lernenden grundlegende Fähigkeiten im Einsatz von Texteinbettungen für verschiedene Anwendungen in der KI zu vermitteln. Im Gegensatz zu Large Language Models (LLMs), die Texteingaben akzeptieren, zielt dieser Kurs darauf ab zu lehren, wie Large Multimodal Models (LMMs) wie Gemini Text, Bilder und Videos als Eingabeprompt integrieren können, um umfassendere und genauere Ergebnisse zu liefern.
Andrew Ng zielt mit diesem Kurs darauf ab, effektive Techniken für multimodale Förderung, die Unterschiede und Anwendungsfälle für Gemini Nano, Pro, Flash und Ultra-Modelle zu vermitteln. Geleitet von Erwin Huizenga, Entwickler-Befürworter für Gen AI auf Google Cloud, konzentriert sich der Kurs darauf, wie man Gemini mit externen APIs unter Verwendung von Funktionsaufrufen integriert und bewährte Verfahren für die Erstellung von multimodalen Anwendungen.
Besuchen Sie den Kurs hier.
Innovation zuerst
Die Fähigkeit, ein Modell zu haben, das über Text und Bildern gründet, ist durchaus neu. Vor LMMs wie Gemini war eine effektive Methode, um gleichzeitig mit Bildern und Text zu arbeiten, die Verwendung eines Bildunterschriftungsmodells, um das Bild zu beschreiben, und dann diese Bildunterschrift an ein LLM zu übergeben. Mit LMMs können diese Bilder jedoch direkt als Eingaben zusammen mit Text vom KI-System interpretiert werden.
DeepLearning.AI bietet eine Vielzahl neuer Kurse an, allein in diesem Monat hat das Unternehmen einen Kurs zum föderierten Lernen vorgestellt, das ein sicheres Training auf privaten Daten ermöglicht, neben einer Partnerschaft mit Flower Labs. Eine bedeutende Zusammenarbeit mit Upstage hilft den Studierenden, effizient große Sprachmodelle vorzuschulen, einschließlich kostensparender Techniken wie Tiefenaufskalierung.
Mit diesem vielfältigen Angebot bietet DeepLearning.AI eine wertvolle Ressource für diejenigen, die ihre Fähigkeiten auf dem ständig weiterentwickelnden Gebiet der KI voranbringen möchten. Abgerundet werden die jüngsten Starts durch einen Kurs zur Optimierung von Retrieval Augmented Generation (RAG) in Partnerschaft mit MongoDB. Dieser Kurs vermittelt den Lernenden die Fähigkeiten zum Bau effizienter und skalierbarer RAG-Anwendungen, und behandelt Techniken wie Vektorsuche und Prompt-Kompression.
Lesen Sie auch: Andrew Ng’s DeepLearning.AI stellt neuen Kurs zum Bau von KI-Anwendungen mit Haystack vor.
Hinterlasse eine Antwort