Gruppenmitglieder
Titel | Name | Position/Tätigkeiten | Kontakt |
---|---|---|---|
Elke Schubert | Büroassistenz | elke.schubert(at)dzne.de | |
Dr. | Marie Oestreich | Postdoc | marie.oestreich(at)dzne.de |
Shubhi Ambast | Doktorandin | shubhi.ambast(at)dzne.de | |
Charles Mwangi Kaumbutha | Doktorand | charlesmwangi.kaumbutha(at)dzne.de | |
Karola Mai | Doktorandin | karola.mai(at)dzne.de |
Shubhi Ambast
Ich interessiere mich für die Anwendung von Deep-Learning-Methoden, insbesondere von graphbasierten neuronalen Netzen, um komplexe biologische Erkenntnisse aus Datensätzen zu gewinnen, die z. B. aus der Einzelzelltranskriptomik stammen. Außerdem fasziniert mich der Einsatz von erklärbarer KI zur Interpretation und Validierung meiner Forschung, um ein tieferes Verständnis der zugrunde liegenden biologischen Mechanismen in der Gesundheitsforschung zu erlangen.
Karola Mai
Meine Forschung konzentriert sich auf das PriSyn-Projekt, bei dem ich die biologische Plausibilität der generierten synthetischen scRNAseq-Daten bewerte und an der Integration von scRNAseq-Daten mit Genotypinformationen arbeite. Darüber hinaus nutze ich meine praktische Erfahrung in der Durchflusszytometrie und wende Methoden des maschinellen Lernens an, um die Standardisierung und Skalierbarkeit der Analyse von Durchflusszytometriedaten zu verbessern.
Charles Mwangi Kaumbutha
Mein Forschungsinteresse gilt der Metadatenanalyse, insbesondere dem Umgang mit fehlenden Daten. Derzeit liegt mein Hauptaugenmerk auf der Untersuchung von Bewertungsmetriken für Imputationsmethoden, um die Qualität nachgelagerter maschineller Lernaufgaben wie Klassifizierung zu gewährleisten.
Marie Oestreich
Meine Forschung konzentriert sich auf die Chemoinformatik, insbesondere auf die Entwicklung von tiefen generativen Modellen, die neue kleine Moleküle vorschlagen, um den Prozess der Arzneimittelentwicklung zu beschleunigen. In diesem Zusammenhang untersuche ich außerdem chemisch informierte Einbettungsstrategien für Moleküle, um den chemischen Informationsgehalt während des Trainings von nachgelagerten Deep-Learning-Modellen zu maximieren.