Matematikken bag generative diffusionsmodeller

v/Andreas Basse-O'Connor, Professor, Aarhus Universitet, Institut for Matematik
Inden for de seneste år har der været bemærkelsesværdige fremskridt inden for generativ kunstig intelligens (generativ AI). Et eksempel på dette er ChatGPT, der på rekordtid er blevet allemandseje inden for tekstgenerering. Udover tekstgenerering kan generativ AI også skabe helt nye billeder, der er så præcise, at de er svære at skelne fra virkelige billeder. I dette foredrag vil vi udforske den matematik, der muliggør dette, kendt som Generative Diffusionsmodeller. Dette bygger på en del af matematikken, der kaldes stokastiske processer og stokastiske differentialligninger.
Konceptet går ud på at træne en algoritme ved hjælp af store mængder træningsdata. Processen indebærer gradvist at tilføje støj til data (f.eks. billeder) på en kontrolleret måde, så man til sidst får en helt tilfældig observation fra en normalfordeling. Ved at analysere denne tidsrække af observationer træner man algoritmen (neuralt netværk) til at forstå, hvordan man kan gå fra data til tilfældige observationer.
I foredraget vil vi dykke ned i detaljerne omkring disse metoder og diskutere, hvordan de bidrager til den imponerende præcision og kreativitet inden for generativ AI. Vi vil også udforske potentielle anvendelser og de udfordringer, der er forbundet med denne spændende teknologi.
Seminaret afholdes i samarbejde med Ungdommens Naturvidenskabelige Forening.
I skal være opmærksomme på, at jeres reserverede plads bortfalder kl. 17. Det er derfor vigtigt, at I ankommer før kl. 17, selvom foredraget først starter kl. 17.15.
-
Antal deltagere15
-
AnsvarligCWL
-
TypeValgfri