19. Oktober 2018
  NEWS

Big Data: Die Nadel im Datenhaufen finden

Genau wie im täglichen Leben steigt auch in der Wissenschaft die Menge der Daten rasant an. Durch Experimente und Simulationen entstehen gewaltige Datenmengen. Aus diesem Kapital gewinnen die Forscher dank ausgefeilter Analysewerkzeuge neue Erkenntnisse. Die weltweit führenden Experten treffen sich am 24. September 2013 zum zweiten internationalen Symposium „The Challenge of Big Data in Science“ am Karlsruher Institut für Technologie (KIT).    

„Datenanalyse hat sich neben Theorie, Experiment und Simulation längst als vierter Grundpfeiler der Wissenschaft etabliert”, sagt Prof. Achim Streit, Direktor am Steinbuch Centre for Computing (SCC) des KIT. Spitzenforschung in der Teilchenphysik, in der Erdbebenforschung, in der Biotechnologie, aber auch in den Geisteswissenschaften ist ohne die Arbeit in großen Datenbeständen nicht mehr durchzuführen. „Die Entdeckung des Higgs-Teilchens, zu dem das KIT mit GridKa maßgeblich beigetragen hat, ist nur die Speerspitze der Entwicklung“. Rund 25 Petabyte, die Datenmenge, die auf 5 Millionen DVDs passt, werden bei GridKa, dem deutschen Rechen- und Datenzentrum für den Beschleunigerring LHC am CERN, gespeichert und stetig analysiert.    

Die Erfahrung im Umgang mit großen Datenmengen, mit „Big Data“, wird am KIT im Projekt “Large Scale Data Management and Analysis” (LSDMA) konzentriert. „Damit die Suche nach Zusammenhängen und wissenschaftlichen Erkenntnissen in großen und komplexen Datenbeständen nicht zur sprichwörtlichen Suche nach der Nadel im Heuhaufen wird, werden leistungsfähige Softwarewerkzeuge entwickelt“, führt Dr. Christopher Jung, LSDMA-Projektleiter, aus. „Das Symposium spiegelt mit Vortragenden aus den Natur- und Geisteswissenschaften, aber auch von Firmen wie Google die verschiedenen Facetten des Themas wider.“

 

Zu den Vortragenden der eintägigen Veranstaltung gehören:  

Beth Plale, Indiana University, wirft ein Schlaglicht auf die Zukunftstrends Big Data und Open Access und deren mögliche Symbiose.  

Sayeed Choudhury, Johns Hopkins University, zieht ein Resüme über 10 Jahre Datenpflege bei wissenschaftlichen Großprojekten wie dem Sloan Digital Sky Survey.  

Alexander Hall, Google, erklärt, mit welchen Algorithmen es möglich ist, Billionen Datensätze effizient zu analysieren.    

Das vollständige Programm finden Sie unter:
http://www.helmholtz-lsdma.de/Symposium2013    

Weiterer Kontakt:
Kosta Schinarakis, PKM – Themenscout
Tel.: +49 721 608 41956, Fax: +49 721 608 43658
E-Mail: schinarakis@kit.edu


Goooooogle-Anzeigen