Big Data og effektive algoritmer

Søauditorierne, Wilhelm Meyers Allè, bygning 1250
Du kan tilmelde dig dette arrangement, hvis du er fra årgang: 2014, 2015 – men du skal logge ind først.
Afdeling
Herning
Viby
Sidste tilmeldingsfrist
Mandag, 22. februar 2016 - 12:00

Professor i datalogi Lars Arge, Institut for Datalogi, Aarhus Universitet

Hvad er Big Data egentlig? 

Kan Big Data forhindre, at dit hus bliver oversvømmet ved skybrud eller stormflod? 

Hvorfor flyver der fly rundt over Danmark og skyder med en laser ned på jorden?

Er Google bedre til at forudsige influenzaepidemier end lægerne? 

Hvordan slår man effektivt op i et stort leksikon, og hvordan sorterer man en masse tal effektivt?

Hvordan sparede transportfirmet UPS 10 millioner liter brændstof årligt?

De enorme og eksponentielt stigende mængder af detaljerede data, der er fulgt i kølvandet på en stadig mere digitaliseret verden, bringer os på tærsklen til den største informationsrevolution, siden Gutenberg i midten af 1400-tallet opfandt bogtrykkerkunsten og gav os nye muligheder for at lagre og sprede information via bøger, aviser og andre tryksager. I dag samler vi fx informationer ind via internettet – fra alt som uploades på websider, over sociale medier, til det utal af sensorer og andet måleudstyr, som er placeret mange steder og indlejret i mange produkter.

En ny opmåling af det danske landskabs højde er ét eksempel på, hvordan store mængder detaljerede data i stigende grad bliver tilgængelige og svært håndterbare: Med en laserbaseret højdemåler anbragt på fly, som har fløjet hen over hele Danmark, er det danske landskabs højde blevet målt med en uhørt høj præcision og tæthed. Nemlig en tæthed på fire målinger per kvadratmeter – svarende til 150 milliarder målinger i alt. 

Den syndflod af digitale data og de nye muligheder dataene skaber inden for videnskaben – og samfundet som helhed – kaldes Big Data. De mange data har ført til et paradigmeskift: tidligere brugte forskere fra mange discipliner det meste af deres tid på at indsamle data; nu bruger de i stigende grad tiden på at analysere eksisterende data for at finde mønstre og korrelationer. Men netop evnen til effektivt at bearbejde de store mængder data er ofte en udfordring. Bearbejdelsen foregår med såkaldte algoritmer, som er opskrifter på, hvordan man foretager en beregning trin for trin. Og udvikling af effektive (hurtige) algoritmer, der løser et givent problem med så få trin som muligt, er ofte nøglen til nye erkendelser eller produkter. 

Du vil se eksempler på simple algoritmer og fx høre, hvordan algoritmeforskere fra Aarhus Universitet har udviklet snedige, effektive algoritmer, som gør det muligt at bruge de nye meget præcise laseropmålinger af Danmark til at forudsige, hvor der er fare for oversvømmelse i forbindelse med skybrud. Du vil se en demonstration af et nyt online-analyseværktøj, hvor man kan udforske risikoen for oversvømmelse ved både skybrud og høj havvandstand på ethvert sted i Danmark.

Seminaret afholdes i samarbejde med Offentlige foredrag i Naturvidenskab, Aarhus.

  • Antal deltagere
    35
  • Type
    Valgfri