TU Berlin

Neuronale InformationsverarbeitungDeep Networks

Neuronale Informationsverarbeitung

Inhalt

zur Navigation

Deep Networks

Tiefe neuronale Netze sind sehr erfolgreich in vielen Anwendungsbereichen. Dennoch ist es bisher unklar, warum sie so erfolgreich sind, denn gerade der Erfolg von überparametrisierten neuronalen Netzwerken widerspricht den Erkenntnissen der statistischen Lerntheorie. Mithilfe von der Analyse der Repräsentation versuchen wir neue Erkenntnisse zu gewinnen. Wir sind interessiert an folgenden Fragestellungen.

  • Sind (visuelle) Aufgabenstellungen (tasks) „verwandt“ und können wir ihre „Nähe“ quantifizieren?
  • Inwieweit verhalten sich Datensatz (Eingabe) und „task demand“ (Eingabe-Ausgabe Statistik) zueinander und tragen zur Problemstellung bei?
  • Können wir diesen Zusammenhand effizient erkennen und bestimmen?
  • Hilft das Konzept von intermediären Repräsentation?
  • Gibt es universelle Repräsentation für (visuelle) Daten, welche eine effiziente Lösungen für viele „alltägliche“ Aufgabenstellung sein können?

Aktuell treffen wir uns jeden Donnerstag um 14 Uhr, um diese Fragen zu diskutieren und neue Erkenntnisse zu gewinnen. Bei Interesse meldet euch gerne an .

Ausgewählte Publikationen:

Goerttler, T. and Obermayer, K. (2021). Exploring the Similarity of Representations in Model-Agnostic Meta-Learning. Learning to Learn workshop at ICLR 2021


Müller, L., Ploner, M., Goerttler, T. and Obermayer, K. (2021). An Interactive Introduction to Model-Agnostic Meta-Learning. Workshop on Visualization for AI Explainability at IEEE VIS


Navigation

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe