• Themenfeld
  • Teilgebiet
  • Thema

QELM

Tradi­tio­nelle Ansätze des überwach­ten Lernens mit neuro­na­len Netzwerk­ar­chi­tek­tu­ren (Neural Networks, NN) erfor­dern während des Trainings eine itera­tive Anpas­sung einer großen Anzahl von Parame­tern, häufig über tief verschach­telte und stark mitein­an­der verbun­dene Schich­ten hinweg. Dies kann mit einem hohen rechne­ri­schen Aufwand verbun­den sein. Extreme Learning Machi­nes (ELMs), eine Ausprä­gung des Reser­voir Compu­ting, wurden als schnel­lere Alter­na­tive entwi­ckelt: ELMs verwen­den eine zufäl­lig initia­li­sierte Reservoir‑Schicht, die die Einga­be­da­ten in einen hochdi­men­sio­na­len Raum proji­ziert, während ausschließ­lich die abschlie­ßende Auslese‑ bzw. Readout‑Schicht trainiert wird. Quantum Extreme Learning Machi­nes (QELMs) übertra­gen dieses Konzept auf Quanten­hard­ware. Ein quanten­me­cha­ni­sches Reser­voir, Qubits, die sich unter fest vorge­ge­be­nen, zufäl­lig initia­li­sier­ten Quanten­dy­na­mi­ken entwi­ckeln, verar­bei­tet Eingangs­da­ten mittels Super­po­si­tion und Verschrän­kung und erzeugt dadurch einen komple­xe­ren, hochdi­men­sio­na­len Merkmals­raum. Trainiert werden ausschließ­lich klassi­sche Ausle­se­ge­wichte, wodurch Kontrol­lier­bar­keits­pro­bleme auf der Quanten­hard­ware vermie­den werden; dies macht den Ansatz beson­ders geeig­net für Anwen­dun­gen der Zeitreihenvorhersage

Tradi­tio­nal approa­ches of super­vi­sed learning equip­ped with Neural Networks (NN) archi­tec­tures require itera­tive adjus­t­ment of many parame­ters (often throug­hout deeply inter­con­nec­ted layers) while training the algorithm, which can be compu­ta­tio­nally expen­sive. Extreme Learning Machi­nes (ELMs), a form of reser­voir compu­ting, was created to offer a faster alter­na­tive: ELMs use a randomly initia­li­zed “reser­voir” layer that projects inputs into a high-dimen­sio­nal space, with only the final readout layer trained. Quantum Extreme Learning Machi­nes (QELMs) adapted this idea to the quantum hardware. A quantum reservoir—qubits evolving under fixed random initia­li­zed quantum dynamics—processes input data through super­po­si­tion and entan­gle­ment, creating a more complex and high-dimen­sio­nal feature space. Only classi­cal readout weights are trained, avoiding controll­a­bi­lity issues on the quantum hardware, making it suited for timese­ries forecas­ting applications.

 

Partner