17 Mio. für Data Science

5 ausgewählte Projekte

Helmholtz Analytics Framework – Das Pilotprojekt Helmholtz Analytics Framework wird die Entwicklung der Datenwissenschaften in der Helmholtz-Gemeinschaft stärken. Das Projekt verfolgt eine systematische Entwicklung domänenspezifischer Datenanalysetechniken in einem Co-Design-Ansatz zwischen Domänenwissenschaftlern und Informationsexperten. Vor allem der Austausch von Methoden zwischen einzelnen wissenschaftlichen Bereichen soll zu einer Verallgemeinerung und Standardisierung führen. In anspruchsvollen Anwendungsfällen wie der Erdsystemmodellierung, der Strukturbiologie, der Luft- und Raumfahrt, der medizinischen Bildgebung oder den Neurowissenschaften entsteht damit das Potenzial zu wissenschaftlichen Durchbrüchen und neuem Wissen. Das Helmholtz Analytics Framework kooperiert eng mit der bereits etablierten Helmholtz Data Federation (HDF).

Weitere Informationen und Kontakt: Prof. Dr. Dr. Thomas Lippert (FZ-Jülich), th.lippert@fz-juelich.de; Prof. Dr. Achim Streit (KIT), achim.streit@kit.edu; Björn Hagemeier (FZ-Jülich), b.hagemeier@fz-juelich.de; Daniel Mallmann (FZ-Jülich), d.mallmann@fz-juelich.de

Sparse2Big – Imputation und Fusion für große, spärliche Daten – Das Pilotprojekt „Sparse2Big“ stellt methodische und technische Grundlagen für den Umgang mit Big Data bereit. Das Ziel ist, aus nur spärlich beobachteten, großen Datensätzen durch Imputation (Vervollständigung) und robuste Modellierung der Beobachtungsprozesse wirklich nutzbare „Big Data“ zu schaffen. Das Projekt konzentriert sich zunächst auf Datensätze in der , wobei moderne Techniken der Genom-Sequenzierung zur Analyse von einzelnen Zellen genutzt werden: So erhalten Forscher ein „molekulares Mikroskop“ mit vielfältigen Einsatzgebieten, etwa in der Entwicklungsbiologie, der Krebsdiagnostik oder der Stammzellentherapie. Die innovativen Techniken von Sparse2Big werden zu einer erheblichen Verbesserung der Beobachtungen in der Einzelzellgenomik und damit der bio-medizinischen Forschung beitragen. Darauf aufbauend wird schon heute ein Transfer dieser Methoden in andere Forschungsbereiche vorbereitet.

Weitere Informationen und Kontakt: Prof. Dr. Dr. Fabian Theis (HMGU), fabian.theis@helmholtz-muenchen.de; Prof. Dr. med. Joachim L. Schultze (DZNE), joachim.schultze@dzne.de

Reduced Complexity Models – Im Bereich der Klima- und Umweltforschung, der Gesundheitsforschung, der Energieforschung und bei der Entwicklung von Robotern kommen komplexe mathematische Computermodelle zum Einsatz. Die Datenflut aus diesen Modellen stellt Forscher und Rechenzentren vor enorme Herausforderungen, zu deren Bewältigung neue intelligente Methoden entwickelt werden müssen. Hier hilft das Pilotprojekt „Reduced Complexity Models“ mit der Entwicklung von Modellen reduzierter Komplexität, die von intelligenten, neuen Methoden aus den Informationswissenschaften stammen. Das Projekt konzentriert sich auf die Quantifizierung der Unsicherheiten von Simulationen, die Entwicklung von vereinfachten Modellen und die Identifikation von Schlüsselabhängigkeiten. Ziel sind stabilere Modelle und belastbarere Simulationen für unzählige Anwendungen. Anhand von konkreten, anspruchsvollen Beispielen werden diese neuen Konzepte sowie Methoden entwickelt und überprüft. Das Projekt wird die Entwicklung von interoperablen und wiederverwendbaren Technologien vorantreiben und damit zur schnelleren Lösung zukünftiger Probleme beitragen. So kann es auch beachtliches gesellschaftliches Potenzial entfalten.

Weitere Informationen und Kontakt: Prof. Dr. Corinna Schrum (HZG), corinna.schrum@hzg.de

Automated Scientific Discovery – Das Pilotprojekt „Automated Scientific Discovery“ wird völlig neue Technologien hervorbringen, um Beziehungen in großen Mengen von komplexen wissenschaftlichen Daten automatisiert zu entdecken. Die Helmholtz-Forscher nutzen dazu hoch innovative und zuverlässige Methoden der künstlichen Intelligenz. Zunächst werden die Projektpartner diese Methoden zur Weiterentwicklung des Wissens über Kernfusionsprozesse und die Erdbeobachtung einsetzen. In weiteren Schritten werden die Wissenschaftlerinnen und Wissenschaftler Grundlagenforschung, angewandte Forschung und die Entwicklung generischer Methoden kombinieren. Die Entwicklung der generischen Methoden wird durch eine enge Kooperation mit dem Pilotprojekt Helmholtz Analytics Framework gestärkt.

Weitere Informationen und Kontakt: Dr. Jakob Svensson (IPP), jakob.svensson@ipp.mpg.de

Imaging at the LimitBildgebungsverfahren stellen eine essentielle Informationsquelle in nahezu jedem Forschungsgebiet dar. Das Pilotprojekt „Imaging at the Limit“, das zunächst eine Anschubfinanzierung erhält, fokussiert diejenigen Aspekte der Bildrekonstruktion, die Messungen in tatsächliche Bilder überführt. Die geschickte Ausnutzung des Informationsgehalts in den Messdatensätzen ermöglicht es unter anderem, die Effizienz bei der Rekonstruktion und damit die Nutzbarmachung visualisierter Daten zu verbessern. Das Projekt will bestehende Bildgebungsverfahren und die damit verbundenen Forschungsfelder zukunftsweisend verbessern.

Weitere Informationen und Kontakt: PD Dr. Wolfgang zu Castell (HMGU), castell@helmholtz-muenchen.de; Prof. Dr. Christian Schroer (DESY), christian.schroer@desy.de

->Quelle: