zum Hauptinhalt wechseln zum Hauptmenü wechseln zum Fußbereich wechseln Universität Bielefeld Play Search

Know­ledge Re­p­re­sen­ta­ti­on and Ma­chi­ne Lear­ning

Campus der Universität Bielefeld
© Uni­ver­si­tät Bie­le­feld

Soft­ware

Ma­schi­nel­les Ler­nen für die Bil­dung

 

Ma­schi­nel­les Ler­nen auf struk­tu­rier­ten Daten

  • edist im­ple­men­tiert eine Viel­zahl von edit-​Distanzen zwi­schen Se­quen­zen und Bäu­men, ein­schließ­lich Back­tra­cing und Me­trik­ler­nen (Paa­ßen et al., 2018) in cy­thon. Ins­be­son­de­re ent­hält die Bi­blio­thek Im­ple­men­tie­run­gen für die Levenshtein-​Distanz, dy­na­mic time war­ping, die af­fi­ne edit-​Distanz und die Baum-​edit-Distanz sowie wei­te­re edit-​Distanzen über al­ge­brai­sche dy­na­mi­sche Pro­gram­mie­rung (Gie­ge­rich, Meyer und Stef­fen, 2004). Die Bi­blio­thek ist auf pypi über "pip3 in­stall edist" ver­füg­bar (der­zeit nur für Linux).
  • Re­cur­si­ve Tree Grammar Au­to­en­co­ders sind re­kur­si­ve neu­ro­na­le Netze, die Baum­da­ten au­to­ma­tisch ko­die­ren kön­nen, wenn eine Gram­ma­tik be­kannt ist. Die Autoencoding-​Fehlerrate und die Op­ti­mie­rungs­leis­tung im la­tent space ist bei RT­GA­Es häu­fig bes­ser als bei her­kömm­li­chen Auto-​Encodern. Re­fe­renz­pa­pier
  • Graph Edit Net­works sind gra­phen­ver­ar­bei­ten­de neu­ro­na­le Netze, die zeit­li­che Än­de­run­gen mo­del­lie­ren kön­nen, indem sie Graph-​Edits an jedem Kno­ten vor­her­sa­gen. Re­fe­renz­pa­pier
  • Re­ser­voir Stack Ma­chi­nes sind eine Er­wei­te­rung von Re­ser­voir Me­mo­ry Ma­chi­nes (siehe unten) mit einem Stack als Spei­cher. Dies er­höht die Re­chen­leis­tung für de­ter­mi­nis­ti­sche kon­text­freie Gram­ma­ti­ken (über Chomsky-​3, aber unter Chomsky-​2). Re­fe­renz­pa­pier
  • Re­ser­voir Me­mo­ry Ma­chi­nes sind eine Er­wei­te­rung von Echo State Net­works mit einem ex­pli­zi­ten Spei­cher. Dies er­mög­licht es die­sen Netz­wer­ken, Re­chen­auf­ga­ben wie das ver­lust­freie Ko­pie­ren von Daten zu lösen, die für stan­dard­mä­ßi­ge re­kur­ren­te neu­ro­na­le Netz­wer­ke (auch tiefe) nur schwer oder gar nicht zu lösen sind. Diese Spei­cher­er­wei­te­rung er­höht auch die Re­chen­leis­tung von ESNs von unter Chomsky-​3 auf über Chomsky-​3. Re­fe­renz­pa­pier
  • Tree Echo State Au­to­en­co­ders sind ein Mo­dell zur au­to­ma­ti­schen Ko­die­rung von Baum­da­ten in Do­mä­nen, in denen eine Baum­gram­ma­tik be­kannt ist. Da das Mo­dell dem Echo-​State-Framework folgt (ins­be­son­de­re Baum-​Echo-State-Netzwerke von Gal­lic­chio und Mi­che­li, 2013), ist es sehr ef­fi­zi­ent zu trai­nie­ren. An­hand einer Liste von Trai­nings­bäu­men kann ein Au­to­en­co­der in­ner­halb von Se­kun­den ein­ge­rich­tet wer­den. Re­fe­renz­pa­pier
  • Un­ge­ord­ne­te Baum-​Edit-Distanz bie­tet einen A*-​Algorithmus zur Be­rech­nung der NP-​harten un­ge­ord­ne­ten Baum-​Edit-Distanz mit be­nut­zer­de­fi­nier­ten Kos­ten. Re­fe­renz­pa­pier
  • Ad­vers­a­ri­al Edit At­tacks bie­tet einen An­satz zum An­griff auf Klas­si­fi­ka­to­ren für Baum­da­ten mit­hil­fe von Baum-​Edits. Re­fe­renz­pa­pier
  • Li­ne­ar Su­per­vi­sed Trans­fer Lear­ning bie­tet ein ein­fa­ches Sche­ma zum Trai­ning einer Ab­bil­dung von einem Quell­raum in einen Ziel­raum mit Hilfe von ex­pec­ta­ti­on ma­xi­miza­ti­on über ein Gauß­sches Mischungs-​Modell und sehr we­ni­gen Da­ten­punk­ten im Ziel­raum. Re­fe­renz­pa­pier

Maschinelles Lernen auf strukturierten Daten

  • edist implementiert eine Vielzahl von edit-Distanzen zwischen Sequenzen und Bäumen, einschließlich Backtracing und Metriklernen (Paaßen et al., 2018) in cython. Insbesondere enthält die Bibliothek Implementierungen für die Levenshtein-Distanz, dynamic time warping, die affine edit-Distanz und die Baum-edit-Distanz sowie weitere edit-Distanzen über algebraische dynamische Programmierung (Giegerich, Meyer und Steffen, 2004). Die Bibliothek ist auf pypi über "pip3 install edist" verfügbar (derzeit nur für Linux).
  • Recursive Tree Grammar Autoencoders sind rekursive neuronale Netze, die Baumdaten automatisch kodieren können, wenn eine Grammatik bekannt ist. Die Autoencoding-Fehlerrate und die Optimierungsleistung im latent space ist bei RTGAEs häufig besser als bei herkömmlichen Auto-Encodern. Referenzpapier
  • Graph Edit Networks sind graphenverarbeitende neuronale Netze, die zeitliche Änderungen modellieren können, indem sie Graph-Edits an jedem Knoten vorhersagen. Referenzpapier
  • Reservoir Stack Machines sind eine Erweiterung von Reservoir Memory Machines (siehe unten) mit einem Stack als Speicher. Dies erhöht die Rechenleistung für deterministische kontextfreie Grammatiken (über Chomsky-3, aber unter Chomsky-2). Referenzpapier
  • Reservoir Memory Machines sind eine Erweiterung von Echo State Networks mit einem expliziten Speicher. Dies ermöglicht es diesen Netzwerken, Rechenaufgaben wie das verlustfreie Kopieren von Daten zu lösen, die für standardmäßige rekurrente neuronale Netzwerke (auch tiefe) nur schwer oder gar nicht zu lösen sind. Diese Speichererweiterung erhöht auch die Rechenleistung von ESNs von unter Chomsky-3 auf über Chomsky-3. Referenzpapier
  • Tree Echo State Autoencoders sind ein Modell zur automatischen Kodierung von Baumdaten in Domänen, in denen eine Baumgrammatik bekannt ist. Da das Modell dem Echo-State-Framework folgt (insbesondere Baum-Echo-State-Netzwerke von Gallicchio und Micheli, 2013), ist es sehr effizient zu trainieren. Anhand einer Liste von Trainingsbäumen kann ein Autoencoder innerhalb von Sekunden eingerichtet werden. Referenzpapier
  • Ungeordnete Baum-Edit-Distanz bietet einen A*-Algorithmus zur Berechnung der NP-harten ungeordneten Baum-Edit-Distanz mit benutzerdefinierten Kosten. Referenzpapier
  • Adversarial Edit Attacks bietet einen Ansatz zum Angriff auf Klassifikatoren für Baumdaten mithilfe von Baum-Edits. Referenzpapier
  • Linear Supervised Transfer Learning bietet ein einfaches Schema zum Training einer Abbildung von einem Quellraum in einen Zielraum mit Hilfe von expectation maximization über ein Gaußsches Mischungs-Modell und sehr wenigen Datenpunkten im Zielraum. Referenzpapier
Zum Seitenanfang

Datenschutzeinstellung

Diese Webseite verwendet Cookies und ähnliche Technologien. Einige davon sind essentiell, um die Funktionalität der Website zu gewährleisten, während andere uns helfen, die Website und Ihre Erfahrung zu verbessern. Falls Sie zustimmen, verwenden wir Cookies und Daten auch, um Ihre Interaktionen mit unserer Webseite zu messen. Sie können Ihre Einwilligung jederzeit unter Datenschutzerklärung einsehen und mit der Wirkung für die Zukunft widerrufen. Auf der Seite finden Sie auch zusätzliche Informationen zu den verwendeten Cookies und Technologien.