Samtale med maskiner?
Kan vi samtale med maskiner? Det spørs nok hva vi legger i "samtale". En presis definisjon er for noe er ikke så lett å finne, men SNL.no har en artikkel om samtaleanalyse, der samtaler defineres som "kommunikasjon og sosial interaksjon mellom mennesker i både språklig og ikke-verbal samhandling i naturlige situasjoner". En "samtale" med en maskin bryter selvsagt sammen dersom vi legger "sosial interaksjon mellom mennesker" til grunn. Samtidig vil mange trolig kunne argumentere for at de kan ha en form for samtale med hunden sin. NRK serien Superhundene kan støtte et slikt argument. Kanskje kan vi ha en lignende form for samtaler med maskiner også?
For å styre litt unna en filosofisk diskusjon er det kanskje ryddigere å snakke om simulerte samtaler når vi bruker stemmen for å kommunisere med maskiner. "Simulert" i den forstand at interaksjonen kan fremstå som en form for samtale, mens den i virkeligheten er planlagt (se første del av videoen i introduksjonen for et eksempel) . Nettopp denne planleggingen gjør dette til et spennende møtepunkt mellom skrift- og talespråk og koding, med betydelig tverrfaglig potensiale.
Talegrensesnitt – forstått som løsninger som gir oss mulighet til å styre ulike artefakter med stemmen – omgir oss i stadig økende grad. Med synkende priser og størrelse når det gjelder hardware og forbedringer av TTS (Tale Til Skrift) vil stadig flere objekter rundt oss komme til å reagere på tale. Det er ikke så vanskelig å forestille seg hvordan en lang rekke ulike maskiner kan styres med talekommandoer – fremtidig interaksjon med (selvkjørende) biler får tjene som et tenkt eksempel. Dette betyr selvsagt ikke at alle maskiner vil bli stemmestyrte, men denne typen teknologi vil omgi oss på stadig flere områder.
Kodingen av Aisoy-robotene kan gjøres svært enkelt, slik som vist i skjermdumpet til høyre, eller en kan lage mer kompleks kode der en programmerer inn mer tilfeldige valg, valg som er knyttet til betingelser f eks input fra kamera som leser QR-koder, og selvsagt ulike former for brukerinteraksjon.
Samtalen / teksten som labyrint
Robotene med støtte for å kode for tale gir mulighet til å jobbe i grenselandet mellom det skriftlige og det muntlige, samtidig som vi får et innblikk i (de digitale) tekstenes egenskaper. Hypertekstualitet, dvs at vi følger linker mellom tekstelementer, handler både om å knytte deler av en tekst sammen, samtidig som det handler om å velge noe bort.
På samme måte vil en naturlig samtale utvikle seg. Når vi samtaler med et annet menneske snakker vi ikke om det samme temaet hele tiden, samtalen utvikler seg og finner en retning. I en naturlig samtale er ikke denne retningen planlagt, men en forhåndsdefinert rekke av mulige valg kan for en utenforstående fremstå som en samtale. Vi kan se for oss en slik "samtale" som et dialogtre, eller som en labyrint.
Marlborough Hedge Maze, ved Blenheim Palace.
En enkel hypertekst, der linkene er visualisert som piler mellom tekstnodene. Slike noder kan være websider, men det kan også være små kodesnutter i et program – der elever strukturerer en "samtale".
Et dialogtre viser i vår sammenheng hva roboten skal svare dersom brukeren gir en bestemt respons, eller, sagt på en annen måte: den veien brukeren velger gjennom labyrinten. Ut fra hvilke valg som blir gjort åpnes noen muligheter, mens andre ikke lenger blir tilgjengelig.
Den enkleste form for dialogtre er spørsmål og svar. Dette er en form for samtale som elevene kan kode innenfor rammene av et faglig tema. Du finner et eksempel på dette i øvingene Spørsmål og svar og Spørsmål og svar med lister.
Et annet prosjekt å jobbe med digital diktopplesing, innenfor sjangeren Oulipo («Ouvroir de littérature potentielle», på norsk blir det noe i retning av «Verksted for potensiell litteratur»).
Meningen er slett ikke å erstatte vanlig høytlesing, men snarere gi en annen inngang til det muntlige Den dels manuelle, dels maskinelle måten å lage diktene på gir et utgangspunkt for diskusjon og refleksjon omkring teksters egenskaper.