18. Oktober 2021
  LESETIPPS bei b.i.t.online
  WEITERE NEWS
 
Aktuelles aus
L
ibrary
Essentials
[+]
[X]

In der Ausgabe 6/2021 (September 2021) lesen Sie u.a.:

  • KI, Expertensysteme und Roboter für die Bibliothek
  • Aus Widersprüchen lernen, um das Konzept der Bibliothek als Ort umzusetzen
  • Virtuelle Lesesäle und Lehrräume
    als neue Zugangsmöglichkeiten
    zu analogen Sammlungen
  • Non-Fungible Tokens (NFTs) als neues Sammelgebiet für Bibliotheken?
  • Einsatzmöglichkeiten von Künstlicher Intelligenz beim Schreiben von wissenschaftlichen Texten
  • Chancen und Vorteile durch Smart Cities
u.v.m.
  fachbuchjournal
[+]
[X]
Ausgabe 5 / 2021

VERLAGE
„Uns eint die Liebe zum Buch“ – Verlagsgeschichte und -geschichten

VOLKSWIRTSCHAFT
China, Demo­gra­phischer Wandel, Kapitalismus und Migration

LANDESKUNDE
China | Japan | Indien | Indonesien | Iran

RECHT
u.a. Arbeitsrecht | Bank- und Kapitalmarktrecht | Infektionsschutzgesetz

uvm

Big Data: Die Nadel im Datenhaufen finden

Genau wie im täglichen Leben steigt auch in der Wissenschaft die Menge der Daten rasant an. Durch Experimente und Simulationen entstehen gewaltige Datenmengen. Aus diesem Kapital gewinnen die Forscher dank ausgefeilter Analysewerkzeuge neue Erkenntnisse. Die weltweit führenden Experten treffen sich am 24. September 2013 zum zweiten internationalen Symposium „The Challenge of Big Data in Science“ am Karlsruher Institut für Technologie (KIT).    

„Datenanalyse hat sich neben Theorie, Experiment und Simulation längst als vierter Grundpfeiler der Wissenschaft etabliert”, sagt Prof. Achim Streit, Direktor am Steinbuch Centre for Computing (SCC) des KIT. Spitzenforschung in der Teilchenphysik, in der Erdbebenforschung, in der Biotechnologie, aber auch in den Geisteswissenschaften ist ohne die Arbeit in großen Datenbeständen nicht mehr durchzuführen. „Die Entdeckung des Higgs-Teilchens, zu dem das KIT mit GridKa maßgeblich beigetragen hat, ist nur die Speerspitze der Entwicklung“. Rund 25 Petabyte, die Datenmenge, die auf 5 Millionen DVDs passt, werden bei GridKa, dem deutschen Rechen- und Datenzentrum für den Beschleunigerring LHC am CERN, gespeichert und stetig analysiert.    

Die Erfahrung im Umgang mit großen Datenmengen, mit „Big Data“, wird am KIT im Projekt “Large Scale Data Management and Analysis” (LSDMA) konzentriert. „Damit die Suche nach Zusammenhängen und wissenschaftlichen Erkenntnissen in großen und komplexen Datenbeständen nicht zur sprichwörtlichen Suche nach der Nadel im Heuhaufen wird, werden leistungsfähige Softwarewerkzeuge entwickelt“, führt Dr. Christopher Jung, LSDMA-Projektleiter, aus. „Das Symposium spiegelt mit Vortragenden aus den Natur- und Geisteswissenschaften, aber auch von Firmen wie Google die verschiedenen Facetten des Themas wider.“

    Symposium „The Challenge of Big Data in Science“
    Dienstag, 24. September 2013, um 9:00 Uhr,
    Aula des FTU am KIT-Campus Nord,
    Hermann-von-Helmholtz-Platz 1, 76344 Eggenstein-Leopoldshafen

 

Zu den Vortragenden der eintägigen Veranstaltung gehören:  

Beth Plale, Indiana University, wirft ein Schlaglicht auf die Zukunftstrends Big Data und Open Access und deren mögliche Symbiose.  

Sayeed Choudhury, Johns Hopkins University, zieht ein Resüme über 10 Jahre Datenpflege bei wissenschaftlichen Großprojekten wie dem Sloan Digital Sky Survey.  

Alexander Hall, Google, erklärt, mit welchen Algorithmen es möglich ist, Billionen Datensätze effizient zu analysieren.    

Das vollständige Programm finden Sie unter:
http://www.helmholtz-lsdma.de/Symposium2013    

Weiterer Kontakt:
Kosta Schinarakis, PKM – Themenscout
Tel.: +49 721 608 41956, Fax: +49 721 608 43658
E-Mail: schinarakis@kit.edu