SURFsara Super Day 2018

nieuwe technologie vraagt om nieuwe vaardigheden

Op dinsdag 18 december vond in het EYE Filmmuseum te Amsterdam een nieuwe editie
van Super Day plaats. Dit jaarlijkse evenement van SURFsara staat in het teken van data-
science en high performance computing. Er kwam dan ook veel interessante technologie
aan bod waarbij één grote uitdaging in verschillende presentaties naar voren kwam: het
vinden en/of opleiden van mensen met de juiste vaardigheden.

De aftrap van de dag werd verzorgd door SURFsara CTO Peter Michielse die op basis
van de termen Beter, krachtiger, sneller een aantal trends aanstipte. Grappig hierbij was
dat er al vanaf de jaren ’70 wordt gezegd “we hebben de technologie ervoor”, maar nog
steeds is de digitale revolutie niet voltooid. Een belangrijke trend die werd benoemd is die
van convergentie: er komt steeds meer samen. Data van talloze verschillende bronnen
wordt aan elkaar geknoopt en geeft inzichten die voorheen onzichtbaar waren. Om dit
mogelijk te maken is, zeker binnen de wetenschapswereld, samenwerking onmisbaar. Er
moeten diensten worden ontwikkeld die data-uitwisseling vereenvoudigen en tegelijkertijd
ook veilig maken. SURFsara heeft mede hiervoor Research Drive ontwikkeld. Ook training
is onmisbaar. Je hebt mensen nodig die bereid zijn om nieuwe technieken te leren en
daarmee de technieken vanuit theorie en het laboratorium te vertalen in bruikbare
oplossingen. Als afsluiting keek Michielse vooruit richting 2019: “we gaan meer met GPU’s
doen en er komt een opvolger voor Cartesius.”

Hoe gaat Machine Learning de wereld veranderen?
De eerste presentatie van de dag ging (voornamelijk) over machine learning en werd
verzorgd door professor Pradeep Dubey van Intel. Als uitgangspunt stelde hij dat
computers op dit moment rekenen en mensen besluiten nemen. Mensen kunnen dat
enerzijds beter dan ieder ander op aarde, maar zijn er in absolute zin extreem slecht in. Er
zijn bij het nemen van een besluit door de mens enorm veel factoren die niet relevant zijn
(o.a. emoties), maar wel meewegen bij het besluit. Computers nemen besluiten op basis
van logica en zijn daardoor veel voorspelbaarder en betrouwbaarder. De grote uitdaging
zit echter in het aanleren van de juiste regels. Er wordt daarvoor wereldwijd hard gewerkt
aan allerlei algoritmes die voor betrouwbare en foutloze besluitvorming moeten zorgen. Zo
ver is het nog niet, maar we zijn dichtbij. Volgens Dubey start de digitale revolutie pas echt
op het moment dat computers structureel betere besluiten kunnen nemen dan de mens.
Dit zou enorme opschudding veroorzaken en het dagelijks leven compleet op z'n kop
zetten.

De ontwikkelingen op gebied van machine learning zijn onlosmakelijk verbonden met een
verandering van analytische modellen naar data gebaseerde modellen. Grote motoren
hierachter zijn het internet en exaflops aan rekenkracht die moderne supercomputers bieden.
Vooral de enorme explosie van internetgebruik heeft de hoeveelheid data die
beschikbaar is om algoritmes te verbeteren dermate doen toenemen dat er een
stroomversnelling is ontstaan. Theoretisch was al langer bekend dat dit punt bereikt kon
worden, maar het moment is aangebroken waarop bewezen wordt dat de data-theorie
klopt.

Een concreet gevolg van deze nieuwe manier van modelleren is dat een nieuw model niet
langer afhankelijk is van individuele genialiteit (zoals vaak het geval is geweest bij
beroemde wetenschappelijke ontdekkingen), maar wordt gecreëerd op basis van logica.
De eerste resultaten van data gebaseerde modellen zijn verbluffend. Een test met het
analyseren van het DNA van een gewas, waarbij triljoenen relaties zichtbaar moeten
worden gemaakt, zou met het analytische model 27 jaar duren (op basis van seriële
berekeningen). Het data gebaseerde model bracht dit terug naar 8,5 minuten…. De
complexiteit waar machine learning nog mee kampt is de “ruis” om een herkenbare
situatie heen. De mens is hier extreem goed is. Voorbeeld: hoe leer je een computer het
verschil te zien tussen een echt mens dat loopt op straat en de foto van een echt mens dat
bijvoorbeeld op een reclamebord aanwezig is?

De weg naar deze mate van artificiële intelligentie is complex en vraagt om enorm veel
data en rekenkracht. Als de juiste algoritmes er echter zijn dan kunnen ze ook worden
toegepast op “normale” processoren en wordt het mogelijk om er wereldwijd gebruik van
te maken. “When that point is reached, you will need over a hundred Intel's to deliver
enough processors.” aldus Dubey. Potentie? Autorijden wordt tienduizend keer veiliger en
computers kunnen zelf leren om te programmeren: automatische bug fixes, automatisch
nieuwe functionaliteiten en storingen worden vanzelf verholpen. Enige kleine
aandachtspuntje is dat alle software ontwikkelaars een nieuwe baan mogen zoeken…..

Quantum computing
Na dit inspirerende verhaal over machine learning, was het tijd voor de break out sessie
over quantum computing. Ook hier worden serieuze stappen gezet en is de algemene
overtuiging dat de quantum computer er gaat komen. Wanneer precies is nog niet
duidelijk, maar het werkingsprincipe is praktisch bewezen en het wordt steeds een beetje
duidelijker welke hobbels overwonnen dienen te worden. Projectleider Jorrit van Wakeren
van Qutech ervaart echter dagelijks dat de hobbels complex en talrijk zijn en dat de weg
vooral nevelig is en er dus maar zeer beperkt naar de lange termijn gekeken kan worden.
De kracht van een quantum computer wordt uitgedrukt in het aantal qubits aan capaciteit.
Op dit moment strijden voornamelijk Google, IBM en Intel om de bokaal voor krachtigste
quantum computer ter wereld, met ieder om en nabij de 50 qubits aan capaciteit. Hoewel
dit in zekere zin nog erg weinig is (experts schatten dat er een miljoen qubits nodig zijn
voor grootschalige toepassing), kunnen sommige berekeningen met slechts 5 qubits al
sneller worden uitgevoerd dan met een supercomputer. Nog een leuke vergelijking:
supercumputer Cartesius kan op dit moment het equivalent van 37 qubits simuleren. Voor
50 qubits heb je de capaciteit van duizenden Cartesius-computers nodig…..

Naast het bouwen van de computer zelf, is er ook nog een lange weg te gaan om de
computers praktisch toe te passen. Zo zullen er applicaties voor ontwikkeld moeten
worden. Om hierbij te helpen heeft SURFsara in samenwerking met Atos, Quantech en
TNO een simulator. Middels deze simulator hoopt SURFsara bij te dragen aan kennis
deling en training op gebied van quantum software. Het belang van software voor het
succes van quantum computing is enorm groot. Niet alleen voor het functioneren van de
computer zelf (60-70% is software), maar vooral voor het toepasbaar maken. Je hebt
“killer apps” nodig. Dit lijken vooralsnog machine learning en toepassingen binnen de
chemie en biotechnologie te zijn. De kennis en kunde om software voor quatum computers
te ontwikkelen is nog enorm schaars en dat zorgt er weer voor dat het aantal beschikbare
toepassingen zeer beperkt is.

Dat quantum computing een serieuze bezigheid is, blijkt alleen al uit de 200 man die er bij
of rondom de TU Delft mee bezig zijn. Deze wetenschappers hebben de komende jaren
nog volop werk te doen. De quantum computer werkt op dit moment nabij het absolute
nulpunt (ong. -273ºC), zodat supergeleiding mogelijk wordt. Dat is erg onpraktisch en
complex. De productie van het geheel is nog erg onvoorspelbaar en zeer beperkt
schaalbaar. Bovendien zijn de berekeningen zelf nog erg foutgevoelig door "ruis",
waardoor je op dit moment 1000 fysieke qubits nodig hebt om 1 vqubit te maken die
daadwerkelijk voor calculatie gebruikt kan worden. Ook is er nog geen standaardisatie en
zijn er nog uitdagingen als het aansturen van 1.000.000 qubits via koperen verbindingen of
radiosignalen……. Dit alles bij elkaar brengt nog een aandachtspuntje met zich mee:
kosten. Op dit moment kost een enkele qubit zo’n €150.000. Om rendabel te worden moet
dit in eerst instantie omlaag naar ongeveer €45.000 voor 10 qubits.

Alles op een rij is quantum computing, zeker op dit moment, niet de heilige graal op gebied
van rekenkracht, maar verruimt het de mogelijkheid van wat berekend kan worden. Voor
de nabije toekomst lijkt een toepassing binnen een hybride cross-over tussen klassieke en
quantum computing dan ook het meest waarschijnlijk.

Een universum aan data
De afsluitende presentatie werd verzocht door professor Carole Jackson van Astron.
“Waarom genereert een sterrenkundige zoveel data?” vormde de basis van haar verhaal.
Het leukste antwoord is dat dat komt omdat sterrenkundige het meest fantastische
gereedschap hebben om mee te werken: gigantische telescopen op de meest onmogelijke
plekken op aarde. Ondanks dat de grootste optische telescopen zich bevinden op in ons
kikkerlandje onbestaande bergtoppen en in woestijnen, blijkt dat Nederland toch op
wereldniveau meedoet als het op sterrenkunde aankomt. Met een geavanceerd,
internationaal netwerk van antennes wordt vanuit Drenthe de kosmos afgespeurd met
radiotelescopen. Omdat dit type telescoop weinig/geen last heeft van weersinvloeden of
stof, kunnen ze op veel meer plaatsen worden ingezet. Hierbij viel voor mij persoonlijk een
puzzel op z'n plaats. Tijdens een zomervakantie in Drenthe een aantal jaar geleden vroeg
ik me tijdens een tochtje op de racefiets af wat een grote cirkel met allemaal gekke stokjes
midden in een natuurgebied deed. Mijn aanname was, tot het begin van de presentatie,
dat het een kunstwerk was. Nu is het in zekere zin ook een kunstwerk, maar ik dacht
minder aan de technologische vorm van kunst en meer aan de artistieke….

De stokjes zijn antennes en alle antennes bij elkaar genereren maar liefst 1.7TB/s aan
data. 24/7/365. Omdat deze hoeveelheid data te omvangrijk is om te transporteren, vindt
nabij de antennes de eerste processing plaats. Uiteindelijk gaat er alsnog 28GB/s naar het
datacenter toe om daar verder verwerkt te worden. Op dit moment heeft het systeem al
een stuwmeer van 37PB aan data gegenereerd en daar komt ieder jaar ongeveer 7PB bij.
Dit is meer data dan wat in gebruik is bij diverse Amerikaanse overheidsinstellingen en als
de groei zo doorgaat dan gaan ze zelfs CERN (van de LHC) voorbij. En dat is nog
exclusief de 4PB per jaar die een ander telescoopcluster bij elkaar sprokkelt: Apertif in
Westerbork.

Niet alleen het transporteren en opslaan van dit soort hoeveelheden data is een
uitdagende klus, ook bij het verwerken komt iets meer kijken dan een eenvoudig laptopje.
Vanaf ongeveer 1995 zijn computers krachtig genoeg om telescoop data mee te
verwerken. In het begin werd het meeste rekenwerk dat hierbij kwam kijken op desktops
uitgevoerd. En nog steeds is het voor sommige projecten voldoende om een reken cluster
te gebruiken. Voor het zwaardere werk is Astron echter groot afnemer van Cartesius, onze
nationale supercomputer. Hierop worden miljoenen uren aan CPU cycles gemaakt. En dat
alles om het universum een heel klein beetje beter te kunnen begrijpen.

Machine learning, quantum computing en big data: er zit volop beweging en toekomst in.
Om met deze technieken te kunnen werken is echter ook de juiste kennis nodig. Daar
waren de nodige vragen over. Zorgen hogescholen en universiteiten er op dit moment voor
dat de juiste kennis wordt bijgebracht aan de nieuwe generatie wetenschappers? En welke
kennis en kunde heb je als werkend professional nodig? Dat kennis van programmeren
(zoals Python) een must is, staat eigenlijk niet ter discussie. Over de overig benodigde
skills en competenties was meer onenigheid. Misschien kunnen we machine learning
daar ook wel voor gaan inzetten…..

Slide decks van de presentaties, een filmpje en foto’s zijn te vinden op:
https://superday.surf.nl/retrospect

Onderwerpen
Actieve filters: Wis alle filters
Loading...