• Themenfeld
  • Teilgebiet
  • Thema

Traina­bi­lity

Die Trainier­bar­keit (Traina­bi­lity) im Quanten‑Maschinellen Lernen (Quantum Machine Learning, QML) beschreibt, wie zuver­läs­sig und effizi­ent die Modell­pa­ra­me­ter optimiert werden können. Viele QML‑Modelle basie­ren auf Gradi­en­ten einer Verlust­funk­tion; diese Gradi­en­ten können jedoch mit wachsen­der Qubit‑Zahl und zuneh­men­der Schal­tungs­größe extrem klein werden, was den Lernpro­zess stark verlang­samt. Dieses Phäno­men wird als Barren‑Plateau‑Problem bezeich­net. Die Trainier­bar­keit hängt zudem von weite­ren Fakto­ren ab, darun­ter die Schal­tungs­tiefe, die Initia­li­sie­rung der Parame­ter, die Wahl der Kosten­funk­tion, endli­ches Stich­pro­ben­rau­schen sowie Hardware‑Rauschen. Prakti­sche Strate­gien zur Verbes­se­rung der Trainier­bar­keit umfas­sen unter anderem problem‑ oder domänen­spe­zi­fisch inspi­rierte bezie­hungs­weise flache Schal­tungs­ar­chi­tek­tu­ren, lokale oder struk­tu­rierte Kosten­funk­tio­nen, geeig­nete Parameter‑Initialisierungen (Warm Starts), schicht­wei­ses Training sowie rausch­an­pas­sungs­be­wusste Optimie­rungs­ver­fah­ren. Die Bewer­tung der Trainier­bar­keit ist entschei­dend, um einschät­zen zu können, ob ein QML‑Modell über kleine Demons­tra­tio­nen hinaus skalier­bar ist.

 

Traina­bi­lity in quantum machine learning (QML) descri­bes how relia­bly and effici­ently model parame­ters can be optimi­zed. Many QML models rely on gradi­ents of a loss function, but these gradi­ents can become extre­mely small as circuits grow in number of qubits, making learning slow. This is usually called the “barren plateau” pheno­me­non. Traina­bi­lity also depends on circuit depth, parame­ter initia­liza­tion, choice of cost function, finite sampling noise, and hardware noise. Practi­cal strate­gies to improve traina­bi­lity include using problem-inspi­red or shallow circuit archi­tec­tures, local or struc­tu­red cost functions, parame­ter warm starts, layer­wise training, and noise-aware optimiza­tion. Asses­sing traina­bi­lity helps decide whether a QML model will scale beyond small demonstrations.

Partner