Dieser Text bietet einen Überblick über Deep-Learning-Methoden für Anwendungen in der künstlichen Intelligenz und zukünftige Entwicklungen. Dabei werden verschiedene Arbeiten von Wissenschaftlern wie Bengio, Lecun und Hinton sowie Krestinskaya, James und Chua zu Neuromemristiven Schaltkreisen für Edge-Computing oder Ielmini und Wong zu In-Memory-Computing mit resistiven Schaltelementen diskutiert. Weitere Arbeiten von Wissenschaftlern wie Zhang et al. zu neuroinspirierten Computing-Chips und Wang et al. zu gemeinsamer Suche nach Netzwerkarchitektur, Beschneidung und Quantisierungspolitik werden ebenfalls eingehend behandelt.
Des Weiteren werden Arbeiten zu Hardware-orientierter neuronalen Architektursuche und in-Memory Computing-basierten Beschleunigern von Forschern wie Benmeziane, Guan und Ankit diskutiert. Darüber hinaus gibt es einen umfassenden Überblick über in-Memory-Computing-Geräte von Wissenschaftlern wie Ielmini und Lanza sowie eine Diskussion über Memristive-Technologien für Datenspeicherung, Kryptographie und Funkkommunikation von Lanza et al. Weitere Arbeiten von Forschern wie Ankit et al. zu Schaltungen und Architekturen für in-Memory-Computing-basierte maschinelle Lernbeschleuniger werden ebenfalls behandelt.
Zusätzlich werden Arbeiten zu Hardware-optimierter neuronaler Architekturauswahl und Automatisierung von Analogen KI-Chip-Designs betrachtet. Des Weiteren wird die Bedeutung von GenX, einem allgemeinen Ansatz zur Emulation von Nichtlinearitäten in Memristive-Xbar-Systemen mittels neuronaler Netzwerke, sowie von ML-HW Co-Design diskutiert. Weitere Arbeiten zu Hardware-Aware NAS-Benchmarks, Automatischer Strukturierter Bit-Pruning für RRAM-basierte NN-Beschleuniger und Multi-Objektiver Optimierung von ReRAM-Crossbars für robustes DNN-Inferencing unter stochastischem Rauschen werden ebenfalls behandelt.
Hinterlasse eine Antwort