Mens vi tidligere speilet oss i dyr og natur, ser vi nå til teknologien for å finne ut hva vi ikke er.
Bokessay, publisert i Prosa 4/2011
The Most Human Human: What Talking with Computers Teaches Us About What It Means to Be Alive – Brian Christian; Doubleday, mars 2011
I følge Harvard-psykologen Daniel Gilbert må enhver av hans kolleger i løpet av sitt virke formulere sin egen versjon av «Setningen». Setningen med stor S lyder «Mennesket er det eneste dyret som ______», og det tomme feltet skal fylles med den mest essensielle menneskelige egenskap eller aktivitet. I The Most Human Human: What Talking with Computers Teaches Us About What It Means to Be Alive henviser forfatter Brian Christian til Gilberts setning, og legger til at den alltid har blitt formulert, ikke bare av psykologer, men av filosofer og forskere, helt siden tenkningens røtter. Ja, mange vil sikkert være spissfindige nok til å formulere Setningen dithen at «mennesket er det eneste dyret som formulerer Setningen».
Som tittelen røper, dreier Christians bok seg nettopp om hva det er som gjør oss menneskelige. Han har studert både filosofi og poesi, men for å finne svaret på denne gåten, valgte han å vende seg mot sitt tredje fagfelt: datateknologi. En gang i året arrangeres The Loebner Prize i England, en konkurranse som følges med stor interesse av de av verdens programmerere som jobber med kunstig intelligens. Utfordringen er å passere den såkalte Turing-testen, som ble formulert av matematikeren og data-pioneren Alan Turing i 1950. Allerede i datamaskinenes barndom så Turing den teoretiske muligheten for at de en gang skulle kunne tenke på egen hånd, og forestilte seg en metode for å avgjøre når maskinene hadde nådd langt nok til å bli regnet som intelligente.
Testen går ut på at en person i et lukket rom kommuniserer med et menneske i et annet rom gjennom skriftlige beskjeder, og dessuten fører en tilsvarende «samtale» med en datamaskin, også i et annet rom, uten å vite hvem som er hva. Om ikke testpersonen kan avgjøre hvilken av samtalepartnerne som er menneske og maskin, må computeren krediteres som et tenkende vesen, mente Turing. I den moderne Loebner-versjonen utføres testen slik at et dommerpanel chatter med et utvalg av verdens beste chatteprogrammer via en dataterminal, i fem-minutters seanser. Innimellom chatter de også med et utvalg mennesker. Hvert år mottar det programmet som overbeviser flest dommere om at det er et menneske, prisen for «The Most Human Computer», mens det mest vellykkede mennesket – som altså er flinkest til å overbevise dommerne om sin menneskelighet – får prisen «The Most Human Human.»
I 2008 var det bare én stemme som hindret et dataprogram i å lure dommerne 30 prosent av gangene, den grensen Turing i sin tid satte. Da Brian Christian fikk høre det, bestemte han seg for å stille som menneskelig agent under The Loebner Prize i 2009, for å forsvare menneskenes ære mot datamaskinene. Beskjeden han fikk fra arrangørene var å dukke opp og «være seg selv». Men Christian ville gå grundigere til verks, og satte seg fore å finne ut hvordan han kunne framstå som mest mulig menneskelig. Boka følger ham i hans forberedelser, og forteller hva han lærte, supplert med ekskursjoner i mer hverdagslig omgang med datamaskiner.
Samhandlingens mekanikk
Om det kan høres merkelig ut å studere maskiner for å lære om det menneskelige, er Christian langt fra den første som har hatt den ideen. Stanford-professoren Clifford Nass har allerede gjort det i mange år, ut fra den enkle antakelsen at folk oppfører seg mot datamaskiner på samme måte som de oppfører seg mot hverandre. Nass forteller selv i boka The Man who Lied to his Laptop: What Machines Teach Us About Human Relationships om en av foranledningene til at han selv innså dette. Nass jobbet med å analysere brukergrensesnitt for store selskaper, og ble kontaktet av BMW. Selskapet hadde innført et nytt system for satelittnavigasjon i sine biler, og støtte på uventede problemer. Systemets navigeringsegenskaper var upåklagelige, men ingeniørene hadde gitt dataprogrammet en kvinnelig stemme, noe som førte til en strøm av klager. Mannlige BMW-sjåfører godtok ikke at en kvinne instruerte dem om hvor de skulle kjøre.
The Man Who Lied to His Laptop: What Machines Teach Us About Human Relationships – Clifford Nass with Corina Yen; Current, november 2010
Et annet av Nass’ funn, opphavet til bokas tittel, var at databrukere gjennomgående ga mye mer positiv tilbakemelding når de ble bedt om å evaluere en programvare på den samme maskinen de hadde testet programvaren på i forsøkslokalene. Om de ble henvist til en annen, identisk maskin, og tastet inn tilbakemeldingen der, var de mye mer kritiske i sine vurderinger. Ifølge Nass er det en form for høflighet som holder oss tilbake når vi skal evaluere på den samme maskinen, som om vi er redde for å såre den med krass kritikk, mens vi føler oss frie til å snakke fra levra når vi forholder oss til en «tredjepart». I Nass’ eksempler nekter testdeltakerne gjennomgående for at de tillegger maskinene menneskelige egenskaper, mens resultatene viser at de konsekvent behandler computerne som folk.
Nass mener dermed å ha funnet den perfekte måten å forske på sosial interaksjon på, siden datamaskiner, i motsetning til menneskelige testmedarbeidere, kan gjenta akkurat de samme handlingene helt likt hver gang. Dermed blir den ene delen av interaksjonen kontrollerbar. De sosiale mønstrene folk blottlegger i sitt samkvem med laboratoriets datamaskiner, er ikke farget av om labassistenten er pen eller stygg, i godt eller dårlig humør eller har en kvise akkurat den dagen.
Som Nass sier i forordet: «I løpet av de siste 20 årene har jeg lært at den sosiale verden er mye mindre komplisert enn den kan fortone seg. Interaksjoner mellom mennesker styres faktisk av et sett enkle regler og mønster.» Nass lover å dele hemmelighetene sine med oss, så også vi kan klare oss i sosiale situasjoner ved hjelp av hans anvisninger. «Om en sosial regel er effektiv når den følges av en datamaskin, vil den være enda mer effektiv når den følges av en ekte person.» Som eksempel gir han et forsøk som viser at smiger fungerer. Når forsøkspersonene fikk positiv tilbakemelding fra datamaskinen, følte de seg bedre, selv om de hadde fått beskjed om at tilbakemeldingene var tilfeldige og ikke hadde noe med deres egen prestasjon å gjøre. Den allmenngyldige lærdommen er, ifølge Nass: Skryt alltid, selv når du ikke mener det.
Lyden av spesifisitet
Drømmen om å lage et ufeilbarlig sett av regler for sosial oppførsel har vært med oss i uminnelige tider, og er fremdeles drivkraften bak store deler av selvhjelpsbok-industrien. Et av de mest omtalte forsøkene i senere år er dokumentert i Neill Strauss’ selvbiografiske bok The Game, om såkalte sjekkekunstnere som utarbeider sinnrike metoder for å få med seg jenter hjem fra byen. Sent i boka blir Strauss oppmerksom på systematiseringens farer, etter at han selv er blitt en mester i spillet. Han ser stadig flere «sosiale roboter» i miljøet: Folk som følger oppskriften punkt for punkt, som maskiner. Strauss begynner å lure på om ikke metoden har endt opp med å blokkere for det den i utgangspunktet var et redskap for å etablere – kontakt mellom mennesker.
Brian Christian trekker fram denne anekdoten for å vise at skillet mellom maskin og menneske ofte kan være et blindspor. Det er heller metoden som er motpolen til den menneskelige essens – og en metode kan like gjerne legges til grunn for menneskelig framferd som for maskiners handlinger. Slik er det for eksempel i et skjemavelde uten rom for improvisasjon og skjønn; menneskene utfører i realiteten forhåndsprogrammerte operasjoner på linje med en computer. Når mennesker erstattes av roboter i arbeidslivet, er det i følge Christian fordi arbeidsoppgvavene deres i utgangspunktet er redusert til så simple rutineoperasjoner at de hverken trengs eller bør utføres av mennesker. I sin jakt på det som metoden ikke mestrer, trekker Christian fram det situasjonsspesifikke – det som ikke kan fanges opp av en malbasert framgangsmåte. Av og til har man et problem som ikke passer inn i noen av de velbrukte kategoriene den automatiske kundeservice-telefonsvareren foreslår. Her, hvor maskiner og skjematiske metoder ikke strekker til, finnes det menneskelige.
Jeg hørte på Brian Christians bok i audioversjon, og opplevde noe jeg knapt har erfart før: Stemmen inne i hodetelefonene kunngjorde at «dette er Brian Christian». Det var virkelig han som leste inn sin egen bok. Jeg har mange ganger tidligere tenkt på hva en opplesers stemme gjør for en lydbok, særlig synes mange profesjonelle opplesere å ha problemer med å formidle subtil humor eller selvironi. Kanskje er det noe med de velmodulerte, selvsikre stemmene – som oftest skuespillere – som er vanskelig å forene med en selvutslettende skrivestil. Dette motsetningsforholdet var påtakelig i lydversjonen av Nass’ bok, som er opplest av en profesjonell skuespiller: I teksten har Nass inkludert flere anekdoter om sine egne nerdete tilkortkommenheter når det gjelder dating og kleskoordinasjon, men den profesjonelle stemmen som forteller historiene i audioformat har en bravado og selvtillit som forkludrer jeg-personens framstilling. Det som er ment som en selvironisk gest for å skape intimitet, blir istedet noe midt mellom en teknisk øvelse og en form for lureri, fra lytterens posisjon. Da er det altså noe annet med Brian Christians opplesing av sin egen bok: Fra første setning hører du stemmen til en litt nerdete fyr som er opptatt av datamaskiner og poesi. Christian har gjennomført sin filosofi om det spesifikke i den grad at han har insistert på å fortelle boka med sin egen spinkle stemme, et inspirert grep som bekrefter teoriene hans.
Nass har faktisk foretatt et eksperiment som burde advart forlaget hans mot valget av en profesjonell oppleser. I et eksperiment lot han folk få høre en produktbeskrivelse lest opp med australsk aksent, mens bildet som skulle forestille salgspersonen, viste en asiatisk mann. Omvendt lot han en stemme med koreansk aksent akkompagnere bildet av en hvit mann. Resultatene ble at folk viste mindre tillit til personens kompetanse og sannferdighet når aksenten syntes å skurre med bildet. Nass tolker dette dithen at all slags misforhold eller skurring i en persons framtoning, påvirker oss negativt, selv når misforholdene egentlig bare er uvante sammensetninger.
Det virker plausibelt. Men for meg er det også naturlig å tenke at brukerne ble skeptiske fordi de fornemmet at bildet på nettsiden slettes ikke var av samme person som de hørte opptak av. Vaktsomheten var forøvrig høyst berettiget i dette tilfellet; Nass forsøkte faktisk å lure dem. Ikke minst er en slik skepsis nyttig i en tid hvor vi stadig oftere forholder oss til løsrevne stemmer, utsagn og bilder på internett, og stadig må bedømme hvilke som er troverdige.
Dette forsøket viser en svakhet ved boka til Nass. At vi oppfører oss sosialt overfor datamaskinene betyr for ham at vi oppfører oss akkurat som overfor folk, bare i litt mindre grad. Han tar ikke steget ut og sier at vi forholder oss sosialt til maskinene på deres egne premisser. Det illustreres også i eksperimentet som viser at folk setter pris på «smiger». I forsøket illuderer man smiger ved å la en datamaskin gi positiv tilbakemelding til brukerne, samtidig som de har fått vite at evalueringen er tilfeldige fraser, uten sammenheng med deres ytelser. Nass konkluderer med en allmenn regel for menneskelig interaksjon. Men det er forskjell på å få ubegrunnet skryt fra et menneske og fra en datamaskin. Grunnen til at det heter smiger i første tilfelle, er at vi tror mennesket ønsker å oppnå noe. Vi tror ikke det samme om datamaskinen – da tenker vi bare at den ikke fungerer, og dermed er vi ikke på vakt på samme måte. Slik forsøkspersoner forholder seg forskjellig til den stygge og den pene labassistenten, kan de også la seg påvirke av assistentens digitale karakter.
Mennesket i maskinens bilde
You are not a Gadget – Jaron Lanier; Knopf, januar 2010
Som Daniel Gilberts Setning med stor S illustrerer, har den tradisjonelle referansen for mennesket vært dyrene. Vi har definert oss selv som det tenkende dyret, det oppreiste dyret, det besjelte dyret og det humoristiske dyret. Men det har også vært naturlig å sammenligne oss med den teknologien som til enhver tid er tilgjengelig. I antikken (ca. 100 år e.Kr.) brukte legen Galen de romerske vannforsyningssystemene som modell for kroppen vår. Filosofen Descartes sammenlignet på 1600-tallet mennesket med et orgel, og mot slutten av attenhundretallet ble dampmaskinen et naturlig referansepunkt.
I følge programmerer, oppfinner og forfatter Jaron Lanier er det godt mulig at en slik metaforisk forestilling ble skjebnesvanger for datapioneren Alan Turing. Det forteller Lanier om i You are not a Gadget – en bok som handler nettopp om de farene vi utsetter oss for ved å la teknologien legge føringer for hvordan vi tenker og handler. Alan Turing var homofil, og etter en uvurderlig innsats som kodeknekker i andre verdenskrig, takket de britiske myndighetene med å dømme ham til innsprøytninger med østrogen. Tanken var muligens at homofili skyldtes for «høyt trykk», forårsaket av for mye testosteron under dampkjelen. Turing utviklet bryster og ble stadig mer deprimert, inntil han tok sitt eget liv.
Lanier er selv en av pionerene innen moderne datateknologi, men har i det siste blitt en høylytt kritiker av utviklingen. Han mener at internettet og mye av den moderne teknologien ikke gjør teknologien til våre tjenere, men snarere omvendt. Når vi tilpasser oss ordlistene i smarttelefonene våre, og ikke omvendt, er noe galt. Lanier peker på at teknologiske standarder ofte blir tvangstrøyer når de blir så etablerte at de vanskelig kan skiftes ut. Et gammelt eksempel er hvordan dimensjonen på Londons T-banetuneller har begrenset hvilke nye tog som har kunnet settes i drift. Lanier forteller også om MIDI-teknologien, som ligger i bunnen for en stor andel av musikken som produseres og spilles på radio i dag – en teknologi som egentlig bare var ment for klaviaturinstrumenter. Systemet er dårlig tilpasset blåse- og strykeinstrumenter, hvor man kan gli mellom tonene og forandre karakteren underveis. Midi-dynamikken er dessuten begrenset til 128 trinn på en skala, og dårlig på nyanser. Det er vanskelig å spekulere, men om teknologien hadde vært annerledes, ville kanskje dagens musikalske landskap også vært det. Og vi ville muligens vært skånet for millionvis av plastikkaktige mobilringelyder av den simpleste MIDI-varianten, som er standard i de fleste digitale dingser.
Lanier angriper også web 2.0-kulturen, og peker på et av de samme problemene som Christian: Teknologien tar ikke hensyn til kontekst. Når alle verdens bøker, filmer og sanger blir redusert til en mengde løsrevne tekstbrokker, blandet med dagboksnotater, løgner og tilfeldige bemerkninger, vil meningen med det hele forsvinne. Informasjonen vil være fri, men til hvor mye nytte er informasjon løsrevet fra kilder og sammenhenger? Christian skriver at det nettopp er i sin evne til å gjenkjenne og ta hensyn til kontekst at den menneskelige hjernen er uovertruffen. Så ser vi da også stadig oftere at utfordringen på nettet ikke er å finne informasjon, men hvilken informasjon som er troverdig og nyttig. For å klare oss på nettet må vi utvikle stadig bedre teft for å gjenkjenne alt det maskinlagde som utgir seg for å være menneskelig: chatbots (programmer som later som de er folk som chatter med deg) på sjekkesider, virus og spam i innboksen, automatisk genererte sider som bare er opprettet for å sanke treff ut fra populære søkefraser. En vanlig dag på internettet kan fort fortone seg som en utfordrende Turing-test, og det er slettes ikke gitt at menneskene vinner, i alle fall ikke ut fra antall sidetreff.
Nettaviser som måler sin suksess i antall klikk, lar seg friste av en kvantitativ og maskinell målemetode som ikke forteller dem om leserne har fått noe ut av saken, eller om en villedende overskrift lokket dem til å klikke og deretter klikke seg like raskt ut igjen, skuffede og irriterte. Store nettaviser som New York Times har unngått dette ved i stedet å ha lister over hvilke saker som flest lesere har tipset om via epost, eller blogget om. Slik får man lister over hvilke artikler som menneskelige lesere faktisk har funnet interessante, noe «mest lest»-rangeringene på norske nettaviser i realiteten ikke sier noe om.
Prosa 4, 2011
Brian Christian påpeker at det vi definerer som spesifikt menneskelig er i stadig forandring, etter hvert som det viser seg at ulike sysler også kan utføres av ikke-mennesker. Logikk og matematikk ble lenge sett på som det ypperste uttrykk for det menneskelige, men var et av de første områdene hvor datamaskinene tok over. Som Christian sier: «Hvem ville forestilt seg at datamaskinens tidligste bragder ville være innen logisk analyse, en kapasitet som ble antatt å være det som skiller oss fra alt annet på planeten? At den kunne kjøre en bil og styre et missil før den kunne sykle? At den kunne lage troverdige preludier i Bach-stil før den kunne utføre troverdig småprat? At den kunne oversette før den kunne parafrasere? … Det er fort gjort å glemme hva som er mest imponerende. Nå er datamaskinene i ferd med å minne oss på det».
Christian mener at de siste århundrenes bilde av det ideelle menneske har hatt et klart tyngdepunkt «øverst, og litt til venstre». Med det mener han at hodet er blitt overordnet kroppen, og den venstre hjernehalvdelen er blitt dyrket mer enn den høyre. Vi har sett på den rasjonelle, logiske tenkingen som menneskets høyeste kvalitet – og nedvurdert følelsene og det kroppslige. Så lenge vi stort sett sammenlignet oss med dyr, var det naturlig, siden dyrene lett overgikk oss i fysiske evner og syntes å ha sterke primale følelser. Setningen med stor S befinner seg tydelig i denne tradisjonen, men i dag er det i praksis like vanlig å sammenligne oss med maskiner – faktisk snakker vi ofte som om vi er maskiner. Vi snakker om at vi bedriver multitasking, eller hvorvidt vi er på nett, og klager over at vi er tomme for batteri, når vi egentlig snakker om telefonen.
Mens den tradisjonelle kristne livskjeden plasserte oss mellom dyr og engler, er vi nå havnet i klem på en skala mellom dyr og maskiner, som i Matrix-filmene, og det er kanskje en mer interessant posisjon å være i. I den gamle todelingen var det ganske opplagt at vi aspirerte til å bli engler, det ultimate lå utenfor vår rekkevidde i dette livet. I valget mellom dyr og maskin framstår det tydeligere at løsningen ikke ligger i å søke den ene eller andre retningen, men heller i å søke en stadig balanse, en stadig utforskning av det menneskelige. Og sammenlignet med maskinene ligger våre styrker i det følelsesmessige og kroppslige som tidligere har vært nedvurdert. Enhver som har sett humanoide roboter som kan “etterligne ansiktsuttrykk” eller “gå”, kan bevitne at de framstår som ganske stive sammenlignet med sine menneskelige referanser.
Mennesket, den dyriske maskinen
Selv om vi automatisk menneskeliggjør selv den enkleste maskin, er det lenge til vi virkelig risikerer å forveksle dem med mennesker, så lenge vi befinner oss fysisk i samme rom. Men på Internettet er allerede denne risikoen i høyeste grad til stede. Vi er til daglig på vakt overfor de meldingene vi mottar i innboksen vår, og vurderer fortløpende om de kommer fra en spam-robot eller fra virkelige mennesker. Når vi går på nettet for å finne artikler om et tema, må vi stadig oftere være kritiske til om virkelige mennesker står bak. Da jeg nylig skulle sjekke anmeldelser for språklæringsprogrammer, fikk jeg raskt mistanke om at et selskap hadde oversvømt nettet med masseproduserte positive omtaler og anmeldelser av sitt eget kurs. De bange anelsene ble raskt bekreftet da jeg søkte etter flere anmeldelser, sammen med kodeordene genuine, independent og fake – og endte opp med enda flere positive omtaler som alle forsikret om at de ikke var masseproduserte. Benektelsen var i seg selv høyst mistenkelig, og den stadige gjentakelsen av identisk ordlyd var enda mer avslørende.
Når vi skal avgjøre om vi snakker med et menneske eller en maskin, leter vi gjerne etter det som på ett eller annet vis er spesifikt for situasjonen – og det er da også gjerne der chatteprogrammene i Loebner-konkurransen kommer til kort. Brian Christian skriver at de har vanskelig for å snakke om været, eller om hvor de kommer fra, eller det som sto i avisene samme morgen – slikt som for mennesker kan virke banalt, men er høyst spesifikt for hver person, hvert sted og tidspunkt. Derimot trives chatteprogrammene svært godt med småkrangling og humoristiske utvekslinger. Samtaler hvor man stort sett kommenterer den andres foregående kommentar, er enkle for en maskin. Og det er skremmende å se hvordan mange av disse samtalene som kan minne om menneskelige samtaler – for eksempel diskusjoner hvor man begynner å kommentere hverandres argumenter og tone i stedet for det man opprinnelig snakket om.
Boka forteller også om en av de tidligste chatterobotene, Eliza, som ble programmert i 1964. Ved hjelp av ganske enkle algoritmer kunne Eliza fungere som en slags psykolog. Programmet formulerte stort sett åpne spørsmål med utgangspunkt i kjerneord i brukerens utsagn, noe som var nok til at folk fortalte maskinen i timevis om problemene sine. Utvekslingene foregikk gjerne i denne stilen:
Bruker: Jeg føler meg ikke bra.
Eliza: Jeg er lei for å høre at du ikke føler deg bra. Hva tror du kunne få deg til å føle deg bedre?
Bruker: Vel, mora mi kunne slutte å mase hele tiden.
Eliza: Fortell meg mer om familien din.
Og så videre.
Kunststykket, som i mange andre slike programmer, er å overlate alle de spesifikke utsagnene til den menneskelige brukeren, mens maskinen kan klare seg med et begrenset utvalg av standardiserte responser. Imidlertid byr boka på en langt mer urovekkende innsikt: Selv i ordvekslinger med mennesker i begge ender, kan man ende opp med å føre komplette samtaler som består utelukkende av standardfraser.
Christian skildrer i et av kapitlene utviklingen av sjakkprogrammer. Da IBMs supercomputer Deep Blue vant over Garry Kasparov i 1997, var en av grunnene at sistenevnte gjorde et feiltrekk i en rutinemessig utveksling av trekk helt i begynnelsen – som når en kan komme i skade for å si «takk skal du ha» i stedet for «vær så god» i det man gir penger til en butikkansatt. I begynnelsen og slutten av en omgang sjakk er så mange responser selvsagte at hverken menneske eller maskin trenger å anstrenge seg særlig – akkurat som i begynnelsen og slutten av en samtale på gata. Når en datamaskin spiller mot en urutinert spiller, vil imidlertid maskinen ofte kunne spille et fullstendig forhåndsmemorert spill hvor innledningen går direkte over i avslutningen, uten at prosessoren trenger å anstrenge seg det minste. Omtrent som at vi kan komme i skade for å ha akkurat samme samtale mange ganger på gata med forskjellige folk – fra begynnelse til slutt bestående av ferdige fraser som «Lenge siden.», «De vokser.» og «Vi må ta en kaffe en dag.»
Kasparov innså raskt at den beste strategien mot Deep Blue var å spille nærmest meningsløse trekk tidlig i spillet, for å tvinge maskinen ut av formularet. Mange av de grepene Christian anbefaler for å oppføre seg mer som et menneske og mindre som en maskin, minner om denne strategien. Og de minner begge om klassiske kreativitetsteknikker, grep som forfattere og kunstnere har brukt i mange år for å komme seg utenfor de vante formene.
I sitt klassiske essay «Nødvendigheten av å være inautentisk», skriver forfatteren Dag Solstad om den polske forfatteren Witold Gombrovicz. Hans viktigste tema er «form», det vil si de anerkjente måtene å forholde oss til verden og hverandre på. Solstad argumenterer i løpet av artikkelen – med belegg i Gombrovicz – for at det ikke finnes noen autentisk måte å oppføre seg på, vi blir alltid fanget inn av formene på ett eller annet vis. Derfor er en filosofi som hevder at vi skal være «oss selv» og opptre autentisk, dømt til å feile. Vi kan aldri bli fri, men vi kan kontinuerlig frigjøre oss, ved stadig å gjenkjenne formene og prøve å vri oss unna dem.
Når Christian beskriver hva som gjør oss til mennesker, er det å vurdere, oppdage, og finne ut av ting. Alt dette innebærer å gå inn i en prosess hvor vi ikke godtar de ferdige løsningene som ligger i fastlagte former og metoder, men skaper noe nytt og spesifikt for den situasjonen vi befinner oss i. Paradoksalt vil dette også være en slags metode: En metode for metodisk å bryte med det metodiske. I denne tilnærmingen ligger kanskje noe av det paradoksale med å være menneske. Som maskinene kan vi være metodiske, som dyrene kan vi være instinktive og intuitive. Men vi har også muligheten til å møysommelig arbeide oss bort fra begge disse posisjonene, ved hjelp av vår evne til stadig å sette intuisjon og metode opp mot hverandre, og la oss overraske av hva som skjer.