KIP-Veröffentlichungen

Jahr 2025
Autor(en) Simon Tebeck
Titel Machine Learning Applications on an Analog Photonic Hardware Accelerator
KIP-Nummer HD-KIP 25-88
KIP-Gruppe(n) F31
Dokumentart Bachelorarbeit
Keywords (angezeigt) Photonic Tensor Core, Machine Learning Applications, Deep Convolutional Neural Network Inference, Hardware-Aware Pretraining, Error-Corrected Analog Weight Setting
Abstract (de)

Analoge photonische Hardwarebeschleuniger bieten einen vielversprechenden Ansatz, um die wachsende Nachfrage nach energieeffizienten und parallelen Hochgeschwindigkeitsberechnungen für Deep Learning zu erfüllen. In dieser Arbeit wurde ein photonischer Tensor-Kern untersucht und verwendet, um Bilderkennungsaufgaben auf den MNIST- und CIFAR-10-Datensätzen durchzuführen. Dazu wurden Steuerungsalgorithmen entwickelt, die ein schnelles und präzises Setzen von Gewichten und Skalieren von Ausgangssignalen ermöglichen und dabei analoge Nichtidealitäten kompensieren. Darauf aufbauend wurden Funktionen für optische Matrix-Vektor-Multiplikationen (MVMs) und Faltungen (Convolutions) implementiert, abgestimmt auf Anwendungen im maschinellen Lernen. Zwei Convolutional Neural Networks (CNNs) wurden trainiert und anschließend hardwarenah feinjustiert, um unter den Systemgegebenheiten robuster zu funktionieren. Diese Modelle wurden dann auf dem integrierten photonischen Aufbau eingesetzt und getestet. Ein flaches CNN, bei dem alle MVMs und Faltungen optisch berechnet wurden, erzielte bei MNIST wiederholt Genauigkeiten von über 99,0 % und entsprach damit der simulierten Referenz. Bei CIFAR-10 erreichte ein tieferes CNN auf einer Teilmenge von 500 Bildern 85,0 % Genauigkeit, wobei alle Faltungen photonisch verarbeitet und nur die letzte lineare Schicht digital berechnet wurde. Dieses Ergebnis lag lediglich 1,1 Prozentpunkte unter der Gleitkommareferenz. Trotz externer Geschwindigkeitsbegrenzungen zeigen diese Resultate die praktische Durchführbarkeit mehrschichtiger neuronaler Netze auf photonischen Tensor-Kernen. Die entwickelten Methoden bieten eine Grundlage für weiterführende Forschung.

Abstract (en)

Analog photonic hardware accelerators offer a promising pathway to meet the growing demand for highly parallel and energy-efficient computation in deep learning. In this study, a photonic tensor core was investigated and used to perform inference on the MNIST and CIFAR-10 datasets. New control algorithms were developed to enable fast and accurate weight setting and output scaling while compensating for analog non-idealities. Based on these algorithms, functions for matrix-vector multiplications (MVMs) and convolutions were implemented within a machine learning framework. Two convolutional neural networks (CNNs) were pre-trained and fine-tuned in a hardware-aware manner to meet the system’s constraints. These models were then deployed on the photonic integrated system and tested on image classification tasks. A shallow CNN consistently reached over 99.0 % accuracy on MNIST with all MVMs and convolutions computed optically, matching the digital baseline. For CIFAR-10, a deeper CNN achieved 85.0 % accuracy on a 500-image subset, with all convolutions photonically processed and only the final linear layer computed digitally – scoring just 1.1 percentage points below the floating-point reference. Although externally limited in speed, these results demonstrate the practical feasibility of multi-layer neural networks on photonic tensor cores, and the developed tools provide a foundation for further experimental research.

bibtex
@mastersthesis{Tebeck25MLAAPHA,
  author   = {Simon Tebeck},
  title    = {Machine Learning Applications on an Analog Photonic Hardware Accelerator},
  school   = {Universit\"at Heidelberg},
  year     = {2025},
  type     = {Bachelor},
  month    = {June},
  note     = {}
}
Beispielbild
Datei pdf
KIP - Bibliothek
Im Neuenheimer Feld 227
Raum 3.402
69120 Heidelberg