Skal utvikle programvare for fremtidens hjernevitenskap

The Human Brain Project (HBP) utvikler programvare for fremtidens hjernevitenskap.
The Human Brain Project (HBP) utvikler programvare for fremtidens hjernevitenskap.Foto: Shutterstock / vs148

Kan vi forstå hjernen uten matematikk? NMBU spiller nøkkelrolle i prestisjeprosjekt som utvikler programvareverktøy for å integrere vår kunnskap om hjernen i matematiske modeller.

Å forstå den menneskelige hjerne er en av de største utfordringene innen vår tids vitenskap.

Det er nøkkelen til å finne effektive behandlinger for hjerneskade og sykdom, og også til teknologiske nyvinninger som å utvikle mer energieffektiv databehandling og bygge intelligente roboter som hjelper oss i våre liv.

Slike fremtidige teknologiske anvendelser kan også komme til nytte for humanmedisin, noe The Human Brain Project (HBP) demonstrerer godt.

NMBU med nøkkelrolle

HBP er et europeisk flaggskipprosjekt som koordinerer arbeidet til over 500 forskere i 19 europeiske land. Prosjektet, som ble startet i 2013, er ett av to flaggskipprosjekter under European Commission's Future & Emerging Technologies (FET) -program.

NMBU spiller en nøkkelrolle i prosjektet som ble tilskrevet en avgjørende rolle for fremtidens hjernevitenskap da FETs ekspertkomité evaluerte prosjektets første fase.

Prosjektet "adresserer utvikling av hvordan vi forstår den menneskelige hjerne. Det omhandler også utviklingen av støttende infrastrukturer som hjerneforskere trenger for å ta i bruk "big science"-tilnærminger basert på bruk av for eksempel store datasett. Arbeidet i flaggskipet Human Brain Project forventes å gi grundig innsikt i hva som gjør oss menneskelige, å muliggjøre bygging av revolusjonerende dataverktøy og å gi kunnskap som vil føre til utvikling av nye behandlinger for hjernesykdommer ... "

Representerer et paradigmeskifte for hjernevitenskap

"...Målet med Human Brain Project er å utvikle en felles IKT-infrastruktur som vil bli en forskningsbasert e-infrastruktur for fremtiden, og hjelpe samfunnet av hjerneforskere å samle, analysere, dele, integrere og modellere data om hjernen med sikte på å bedre forstå den menneskelige hjernes funksjoner og sykdommer,"  heter det i ekspertkomiteens rapporten.

–  Prosjektet vil integrere mye av vår kunnskap på nevrovitenskapens fagområder i matematiske modeller. Det er et stort paradigmeskifte, men nevrovitenskapen kan ikke komme videre uten den integrasjonen. Både for å forstå en sunn hjerne, og for å kurere hjernesvikt ved skade eller sykdom, trenger du den detaljerte forståelsen som bare kan gis av presise matematiske modeller,  sa Hans Ekkehard Plesser, Professor ved NMBUs Fakultet for realfag og teknologi. [Saken fortsetter under bildet]

Som president for "NEST Initiative" er han tungt involvert i utviklingen av NEST-simulatoren for nevrale nettverk, som i 2013 satte verdensrekord med en simulering av 1,86 milliarder hjerneceller forbundet med over 10 billioner koblinger på K, en av verdens største superdatamaskiner. Simulatoren har en viktig rolle i HBP, og Plesser er med å lede delprosjektet som bygger analyse- og beregningsplattformen til HBP. [Saken fortsetter under bildet]

NEST-simulatoren spiller en viktig rolle i Human Brain Project.
NEST-simulatoren spiller en viktig rolle i Human Brain Project. Foto: Håkon Sparre

Så hvorfor trenger vi egentlig slike simulatorer og matematiske modeller for å forstå hjernen bedre?

–  I hovedtrekk kan man si at vi nå har en ganske god forståelse av hvordan hver enkelt nervecelle opererer og behandler informasjon, mens vi fortsatt forstår dårlig hvordan nettverk av slike nerveceller oppfører seg. Vårt prosjekt kan sammenlignes med Isaac Newtons utvikling av en ny gren innen matematikk, sa Gaute Einevoll, professor ved NMBUs Fakultet for realfag og teknologi, og fortsatte:

Viktig for vitenskapelig fremgang

–  Newton trengte å utvikle en type matematikk kalt differensialregning for å sjekke om hans foreslåtte gravitasjonslov om hvordan masser som planeter tiltrekker hverandre var riktig eller ikke. Med differensialregning kunne han beregne planetbanene i modellen sin og kontrollere at det teorien hans forutsa var i samsvar med eksperimentelle observasjoner. Med simuleringsinfrastrukturen utviklet i HBP kan vi på tilsvarende måte teste om våre kandidatnettverksmodeller gir forutsigelser som er i samsvar med hjernemålinger. Denne arbeidsflyten vil være viktig for videre vitenskapelig fremgang.

Einevolls oppgave i HBP er å sette sammen biofysiske ligninger og datasimuleringsverktøy som kobler individuelle nervecellers aktivitet med elektriske hjernesignaler som for eksempel kan måles med Elektroencefalografi (EEG). EEG er en nevrofysiologisk metode for måling og registrering av hjernens elektriske aktivitet.  

Krever stor kulturell endring

– HBP lovte å skape en europeisk IKT-infrastruktur for hjerneforskning. Vi har gjort store fremskritt, men vi har også opplevd at det er utfordrende å få til dette fordi det krever stor kulturell endring. De fleste hjerneforskere er utdannet innen biologi eller medisin. Biologi er bygget på observasjon, klassifisering og kvalitative modeller, og matematisk modellering og fysikk er fortsatt litt fremmed for de fleste i fagområdet, forklarte han.

Det har blitt utviklet en rekke avanserte måleinstrumenter som gjør det mulig å studere hjerneprosesser fra molekylnivå opp til hele menneskehjerner. Til tross for dette er matematisk modellering i liten grad blitt tatt i bruk for å sette sammen de eksperimentelle dataene til å gi en helhetlig forståelse av hjernen.

–  Det er også interessant at HBP tvinger frem en ny kultur hvor vi må lære å samarbeide med mange mennesker, noe som er fremmed innen nevrovitenskap, sa Markus Diesmann, direktør for Institutt for Neurovitenskap og Medisin (INM-6) ved Jülich Research Center, og ansvarlig for en arbeidspakke i HBP om konstruksjon av modeller som dekker flere hjerneområder med utgangspunkt i enkeltnerveceller.

Forskningsinfrastruktur for hjerneforskning

I evalueringen av HBPs første faste heter det: "I mars 2016 annonserte Human Brain Project seks innledende versjoner av sine IKT-plattformer, som er kjernen i Human Brain Projects fremvoksende forskningsinfrastruktur for hjerneforskning.

"Plattformene representerer de viktigste målene for Human Brain Project: Å samle og formidle data som beskriver hjernen, simulere og bygge modeller av hjernen, å utvikle hjerneinspirert databehandling og robotteknologi og å skape et globalt vitenskapelig samfunn rundt forskningsinfrastrukturen under utvikling.

"Plattformene består av prototype-maskinvare, programvareverktøy, databaser, programmeringsgrensesnitt og innledende datasett som vil bli raffinert og utvidet på kontinuerlig basis i nært samarbeid med sluttbrukere. Utviklingen av plattformene har vært resultatet av en omfattende tverrfaglig innsats som involverer mer enn 750 vitenskapelige samarbeidspartnere og ingeniører fra 114 institusjoner i 24 land.

– Vil øke reproduserbarheten i forskningen

"Plattformene vil muliggjøre nye typer forskningssamarbeid innen nevrovitenskap, medisin og databehandling. Prototypeverktøyene, maskinvaresystemene og de første datasettene er utformet for å muliggjøre raskere og mer effektive forskningsteknikker i for eksempel modellering, simulering på datamaskiner eller dataanalyse."

–  Et viktig aspekt ved «effektive forskningsteknikker» som nevnes her, er å øke reproduserbarhet i forskning ved digitaliserte arbeidsflyter. Dataanalysen og modelleringstrinnene i nevrovitenskapen har blitt så komplekse at det er vanskelig å reprodusere andres arbeid. Men reproduserbarhet er viktig for den vitenskapelig metode, sa Diesmann.

Men de fleste datasettene HBP-forskere jobber med i dag er så store at du ikke kan lagre dem på din personlige datamaskin.

Forskningen genererer store mengder data som må lagres på spesialiserte superdatamaskiner, og forskerne arbeider intensivt med å forberede sine simuleringskoder og analyseverktøy for en ny generasjon datamaskiner:

Den såkalte "exascale" datamaskinen forventes å være på markedet rundt år 2022.

Forbereder seg på ny generasjon datamaskiner

"Exascale computing" beskriver databehandlingssystemer som er i stand til minst en milliard milliard (kvintillion) beregninger per sekund. En slik kapasitet representerer en tusenfold økning sammenlignet med den første petascale-datamaskinen som ble satt i drift i 2008," ifølge Wikipedia.

Fremtidige exascale-datamaskiner vil overskride ytelsen til dagens mest avanserte superdatamaskiner med ti til hundre ganger, og vil for første gang gi forskere beregningskraften som trengs for å simulere nevrale nettverk av samme størrelsesorden som den menneskelige hjerne.

Men den den ultimate drømmen er at slik datakapasitet til slutt vil bli normen og ikke unntaket. For å oppnå dette målet må datamaskiner, interessant nok, kanskje bli mer som våre hjerner med sine milliarder av nerveceller som opererer parallelt.

–  Min drøm er å kunne dra til hytta mi på fjellet, og hvis jeg får en idé om hvordan hjernenettverkene kan fungere mens jeg er ute på ski, kunne stikke tilbake til hytta og logge meg inn på forskningsinfrastrukturen via laptopen min og teste ideen umiddelbart,  sa Einevoll.

NMBU er involvert i flere av de 12 delprosjektene (SPs) av HBP, inkludert:

  • SP4 Theoretical Neuroscience,
  • SP7 High Performance Analytics and Computing Platform, and
  • SP11 Central Services (Education), as well as
  • Co-Design Projects. 

Fakta

Markus Diesmann, direktør for Institutt for Neurovitenskap og Medisin (INM-6) ved Jülich Research Center

Publisert - Oppdatert

Del på