Fra prototyper til testing

Prototyper er vel og greit, men hva er vel vitsen om man ikke tester dem skikkelig? Hvis man tester dem for hånd så får man en god idé om hva som funker og ikke funker, men skal man si noe om hvordan de fungerer over tid og hvordan de yter i forhold til hverandre, ja, da trenger man en maskin!

Ved å overlate testingen til maskiner sørger vi for at testen er lett å gjenta mange ganger, og man kvitter seg med den usikkerheten det er at et menneske skal gjøre det. Tross alt, mennesker kan fort gjøre feil, mens maskiner gjør bare feil hvis vi har gjort noe feil første gangen vi setter dem opp. Det er et grunnleggende prinsipp i vitenskap at alle eksperimenter skal være beskrevet slik at de kan gjøres på nytt med like forutsetninger, slik at alle som vil kan bekrefte at de får det samme resultatet.

Strekktesting

En stor og sterk maskin for testing av stål.

Når man skal teste noe fysisk, som for eksempel en stålbolt, har man gjerne en stor og kraftig maskin som drar i den med en stadig økende kraft helt til den revner. (Jeg har vært med på sånt, og det er bare å si med en gang at det er rimelig kult å se på!) Når man skal teste et dataprogram, ja, da trenger man rett og slett et dataprogram til. Det nye programmet har bare en oppgave: Å kjøre prototypene mange ganger etter hverandre og ta tiden på dem hver gang. Siden datamaskiner ikke blir lei av å kjøre tester, kan man be den sette i gang med å kjøre programmet 10 000 ganger og komme tilbake neste dag, så har man fått mange flere måleresultater enn man noensinne ville orket å samle manuelt.

Statistikk = pølsefabrikk?

Hva gjør vi så med alle de mange tusen måleresultatene vi har? Vi lager statistikk av dem! For en utenforstående kan statistikk virke litt som en pølsefabrikk: Man dytter masse råstoff inn den ene enden, så skjer det noe mystisk kverning og krydring og ut på den andre siden kommer det noe man kan lage grafer av og synse om. (Eller spise, ihvertfall om vi bruker pølsefabrikken som eksempel.) Men statistiske beregninger er egentlig bare helt vanlig matte der man gjør et fast sett med beregninger på det som kommer inn (gjøres lett på datamaskiner) og ut får man tall som sier noe om hvor store de tingene man fikk inn er i forhold til hverandre. Og så kan man fine grafer av det som er lett å forstå og som tar seg godt ut i rapporter. (Tross alt, vi leker ikke vitenskap her.)

Normalfordeling

En normalfordeling med stigende antall måleresultater.

Grunnen til at vi driver med statistikk og de medfølgende fine grafene er at vi må klare å se forbi tilfeldigheter. Alle ting er utsatt for tilfeldigheter, så resultater varierer fra gang til gang. Dette gjelder både i fysiske tester og på en datamaskin, som jo til syvende og sist er en fysisk ting den også. Dermed kan noen måleresultater ligge rett på gjennomsnittet, mens andre kan være helt unormale. Har man bare tatt to målinger, vet man ikke hvilken av dem som er mest vanlig. Men tar man mange målinger, vil man til slutt kunne se et mønster slik som på bildet. Dette kalles en normalfordeling, og heter det fordi man normalt kan forvente at tilfeldigheter gjør at måleresultatene dine fordeler seg på en slik måte, med flest resultat på gjennomsnittet og noen ut på sidene. (Samtidig kan man også ta det som et tegn på at noe er gærent med målingene dine hvis de ikke fordeler seg slikt, så det blir en kvalitetskontroll også.)

Når man så har testet og laget fin statistikk, kan man se på de resultatene for å se hvilken av prototypene som egentlig er best. Vips, så har man en konklusjon og et potensielt ferdig produkt!