In dieser Studie wurde ein Experiment mit bestimmten Parametern und einem speziellen Setup durchgeführt. PyTorch wurde für die Implementierung des Frameworks verwendet und ein Tesla P40 GPU für Training und Evaluation eingesetzt. Die Trainingsdaten stammen aus der CIFAR-10-Sammlung mit 50.000 Trainings- und 10.000 Testbildern, die jeweils 32 x 32 Pixel groß sind. Das Modelltraining wurde mit dem Adam-Optimizer durchgeführt, wobei die Hyperparameter \(\beta_1\) auf 0.9 und \(\beta_2\) auf 0.999 eingestellt wurden. Während der Datenpräprozessierung wurde die CIFAR-10-Datensatz standardisiert und durch Datenvergrößerungsoperationen verbessert.
Das Training wurde in drei Schritten unterteilt: Warm-up, Feinabstimmung und Stabilisierung. Die Batch-Größe betrug 128 und der Temperaturparameter \(\tau\) wurde auf 5 gesetzt und sinkt exponentiell mit einer Rate von -0.015. Während des Trainingsprozesses wurden stetig Hyperparameter mit einem evolutionären Hyperparameteransatz optimiert. Jedes Eingabemuster wurde zufällig mit einem SNR zwischen 0 und 20 dB belegt. Während der Testphase erhielten alle Eingabemuster denselben SNR.
Für die Bewertung der Bildsemantikkommunikation wurden verschiedene Metriken wie PSNR, SSIM, LPIPS und CR verwendet. Die Ergebnisse wurden mit verschiedenen Benchmarks verglichen, darunter JSCC-No Discriminator, JSCC-MSE, BPG + LDPC und BPG + Capacity. Die Evaluierung zeigte, dass der Ansatz eine hohe Bildqualität und effiziente Datenkomprimierung erzielt.
Die Untersuchung erfolgte anhand von zwei Kanalmodellen: AWGN und Slow-Fading. Die Wirksamkeit des vorgeschlagenen Schemas, “D-JSCC”, wurde auf dem AWGN-Kanal und dem Slow-Fading-Kanal getestet. Vergleiche mit anderen Algorithmen zeigten, dass D-JSCC qualitativ hochwertige Bildübertragung auch bei niedrigen SNR erreichen kann. Die Ergebnisse sind konsistent mit der hochwertigen Bildreproduktion und zeigen die Robustheit des Modells gegenüber Kanalinterferenzen.
Hinterlasse eine Antwort