direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Deep Networks

Tiefe neuronale Netze sind sehr erfolgreich in vielen Anwendungsbereichen. Dennoch ist es bisher unklar, warum sie so erfolgreich sind, denn gerade der Erfolg von überparametrisierten neuronalen Netzwerken widerspricht den Erkenntnissen der statistischen Lerntheorie. Mithilfe von der Analyse der Repräsentation versuchen wir neue Erkenntnisse zu gewinnen. Wir sind interessiert an folgenden Fragestellungen.

  • Sind (visuelle) Aufgabenstellungen (tasks) „verwandt“ und können wir ihre „Nähe“ quantifizieren?
  • Inwieweit verhalten sich Datensatz (Eingabe) und „task demand“ (Eingabe-Ausgabe Statistik) zueinander und tragen zur Problemstellung bei?
  • Können wir diesen Zusammenhand effizient erkennen und bestimmen?
  • Hilft das Konzept von intermediären Repräsentation?
  • Gibt es universelle Repräsentation für (visuelle) Daten, welche eine effiziente Lösungen für viele „alltägliche“ Aufgabenstellung sein können?

Aktuell treffen wir uns jeden Donnerstag um 14 Uhr, um diese Fragen zu diskutieren und neue Erkenntnisse zu gewinnen. Bei Interesse meldet euch gerne an .

Ausgewählte Publikationen:

Goerttler, T., Müller, L. and Obermayer, K. (2022). Representation Change in Model-Agnostic Meta-Learning. ICLR Blog Track


Goerttler, T. and Obermayer, K. (2021). Exploring the Similarity of Representations in Model-Agnostic Meta-Learning. Learning to Learn workshop at ICLR 2021


Müller, L., Ploner, M., Goerttler, T. and Obermayer, K. (2021). An Interactive Introduction to Model-Agnostic Meta-Learning. Workshop on Visualization for AI Explainability at IEEE VIS


Zusatzinformationen / Extras

Direktzugang:

Schnellnavigation zur Seite über Nummerneingabe