Pedagog og cellist Hatfield startet arbeidet med VR-laben i 2017. Så langt har studenter kun testet audiobiten av det virtuelle øvingsverktøyet. I november 2019 kom første testrunde med både lyd og bilde ut, og målet er at VR-laben skal kunne tas i bruk fra 2020 – selv om Hatfield er forsiktig med å tidfeste ferdigstillingen. Man møter gjerne noen humper i veien når man gir seg i kast med å utvikle et produkt som verden aldri har sett før.
Vanskelige publikummere
Foreløpig følger vi nemlig den virtuelle øvingsvirkeligheten fra en dataskjerm på skrivebordet i VR-laben – VR-brillene fra Kina som nettopp har ankommet virker ikke som de skal. Pål Hieronimus Aamodt er COO og prosjektleder i Pointmedia, selskapet som står bak 3D-animasjonen i prosjektet. Nå sitter han foran dataskjermen, åpner og lukker vinduer, klikker på ting, prøver å få de store, svarte brillene til å prate med programvaren de har utviklet. Klør seg i hodet.
– Vi får ta det med produsenten, sier han – delvis til seg selv, delvis til Hatfield, som nikker.
VR-laben har budt på flere utfordringer underveis. Som hvordan man skaper klangen av en stor konsertsal i et rom som måler kun fem beskjedne skritt fra ene enden til den andre, for eksempel. Den største nøtten har likevel vært publikum.
– Midt i utviklingsforløpet fant vi ut at mennesket ikke var bra nok. Vi har brukt 1500 timer på å lage et nytt, forklarer Aamodt, henter opp den minste konsertsalen på dataskjermen og zoomer inn på konsertgjengerne.
De sitter slik et veloppdragent publikum på klassisk konsert gjerne gjør, med hendene i fanget og blikket mot scenen. Men ansiktene er like, flere av damene har kjøpt den samme irrgrønne kjolen og mennene har brukt samme frisør. Det er en gammel versjon av programmet vi ser på, forsikrer Hatfield. De nye menneskene Pointmedia har utviklet har rynker, mer tekstur, ulike ansiktsuttrykk.
– Men når man 3D-animerer alt er det begrenset hvor virkelighetsnære bevegelsene kan bli. Har man face capture og motion capture kan man enklere lage publikums bevegelser og ansiktsuttrykk. Men en motion capture-drakt koster rundt 100 000 kr, det krever ressurser for å få tilgang til det, sier Hatfield.
Hosting, klapping og buing
Det er Hatfield og Pointmedia som bestemmer hvordan publikum ser ut. Oppførselen derimot kan forhåndsprogrammeres eller trigges av læreren mens studenten opptrer i den virtuelle konsertvirkeligheten.