Software kan ikke lære sprog – uden hjælp…

Jeg læste en artikel i går, hvor en forsker havde lavet en ‘computerbaby’.

Idéen var at implementere nogle basale regler i et computerprogram, regler, som man kan forvente et menneske er født med, give programmet en uendelig tekstmængde og se, hvad det lærer.

Jeg har selv beskæftiget mig med noget, der lugter af det samme. Dels teoretisk i artiklen her, og dels i arbejdet med RetKomma. Derfor var min første tanke: Jeg ved, at det kan ikke lade sig gøre!

Det blev jeg ved med at tænke, indtil jeg nåede ned til slutningen af artiklen, hvor journalisten gjorde opmærksom på, at computerbabyen anvendte skriftsprog og ikke talesprog. Og det er en afgørende forskel. Det har den ulempe, at det ikke simmulerer børns sprogindlæring, fordi børn jo ikke lærer sprog gennem skrift, men gennem tale. Omvendt ville det nok også være sådan, jeg selv ville gribe det an, for det siger trods alt en del om principperne for sprogtilegnelse alligevel. Man kan sige, at hvis mennesket ikke var udstyrret med egenskaben til at frembringe lyde så kontrolleret, så havde vi måske udviklet et skriftssprog i stedet for et talesprog – sprog er sprog.

Men jeg tror, det kan lade sig gøre med skriftsprog

Som det måske fremgår, tror jeg, at man kan nå ret langt i at få en computer til at opstille en grammatik automatisk, blot den får skrift nok at arbejde med.

Det interessante i denne sammenhæng er, hvorfor det ikke kan lade sig gøre med talesprog.

For at starte fra brunden består tale af lyd. Hvis vi lytter til et sprog i radioen, vi ikke forstår noget af, er det således umuligt at identificere et eneste betydningsadskillende element.

Lad os for eksemplets skyld antage, at en japaner hører dansk i radioen. Hun vil ikke kunne sige, hvor der starter et ord, eller hvor et ord slutter, men hvad der er lige så interessant: Hun ville ikke kunne identificere bogstaverne – uanset om hun hørte dansk radio fra hun blev født til hun døde, ville hun ikke lære et ord dansk, og hun ville ikke engang kunne opstille noget der minder om et alfabet. Forudsat, naturligvis, at hun ikke lærer eller hører dansk på en anden måde end fra denne radio:)

Det er helt bogstaveligt ment: ikke et ord. Heller ikke en ordform – hun ville altså ikke kunne sige. Det her er et dansk ord – de siger det i radioen hele tiden, men jeg ved godt nok ikke hvad det betyder.

– I teorien i hvert fald. Måske ville hun lære enkelte ord, hvis de blev gentaget hele tiden og aldrig indgik i en sætning. Fx i en jingle, hvor der bare bliver sagt P3 eller The voice. Men ingen ord i en sætning.

Hvad ved jeg egentlig om det?

For at starte fra bunden, er ord opbygget af lyde, men det er ikke alle lyde, der er betydningsadskillende. Lad os tage ordene haj og kaj. Her er lydene h og k betydningsadskillende, for hvis vi tager ordet haj og udskifter h‘et med k, så ændrer ordet betydning.

Men hvad med ordene han og hav? Her er lydene n og v forskellige og lydene a og α er også forskellige, hvor det første a er lys, og det andet α er mørkt. Men kun n og v er betydningsadskillende. Hvis vi udtaler han med et mørkt α, ændrer det ikke betydning, og tilsvarende hvis vi udtaler hav med lyst a.

Med andre ord er der et arbitrært forhold mellem lydene og betydningen – vi har vedtaget, at nogle lyde ændrer betydning, hvis vi skifter dem ud med hinanden, og at andre ikke gør. På den måde grupperer vi de ‘nøgne’ lyde i egentlige fonemer. Fonemet /a/ indeholder således både det lyse a og det mørke α, fordi en indbyrdes udskiftning af disse to lyde ikke gør noget ved betydningen af et ord. Det er disse fonemer, vi har ‘oversat’ til bogstaver i vores skriftssprog. Det vidner også om, at talesproget har udviklet sig en del – der er efterhånden kommet stor afstand mellem bogstaverne i skriften og fonemerne i udtalen. Forskellen på dansk tale- og skriftssprog er som jeg ser det ikke meget mindre end på dansk og norsk, og som sådan kan man godt kalde det to forskellige sprog.

Men det er en anden diskussion. Det relevante her er det, der gør en lyd til et fonem: nemlig betydningen. Hvis ikke vi ved, hvad ord i en tekst betyder, kan vi ikke foretage den mest grundlæggende af alle analyser. Vi kan ikke fremstille et bogstav, fordi alle lyde så at sige kan være lige gode – fonemet /a/ kunne lige så godt bestå af lydene a og i. Den eneste grund til, at vi kan afgøre, at det ikke er tilfældet, er, fordi a og i er betydningsadskillene (fx hil og hal), men det kræver, at vi ved noget om betydningen. Derfor vil japaneren, der lytter til danske sætninger aldrig kunne identificere et eneste ord, fordi hun ikke kan identificere et fonem. Hun vil med andre ord høre forskel på lyse og mørke a’er, og på de i øvrit udendeligt mange forskellige måder at udtale et ord på – for hun ved ikke, hvad hun skal lytte efter – hvad det er for et lille bestemt træk ved udtalen af en lyd, der gør den til en del af netop det ene fonem frem for det andet.

Og det er derfor, at en computer ikke kan opstille en grammatik, selvom det hører uendeligt meget tale. Den kan simpelthen ikke gruppere talen på nogen fornuftig måde. I et sprogindlæringsperspektiv er det også interessant, at børn – og nu bevæger jeg mig ud i et område, jeg egentlig ikke ved noget om – begynder at pege på ting. Peger og siger hund. For før man kan begynde at sammensætte sætninger og forstå ord, er det nødvendigt at høre de samme ord gentaget og identificeret med én bestemt betydning igen og igen for at få de helt grundlæggende byggeklodser – fonemerne – på plads.

Hvis en computer derfor skal gøre det samme trick, er den nødt til at have enten noget skriftsprog at arbejde med – i skriftsproget fonemanalysen jo lavet på forhånd – eller computeren skal have sproget forarbejdet på en anden måde, fx begynde med at modtage 10.000 forskellige måder at sige hund på og tilsvarende for ord som mund, lund, hun – osv. Eller den skal forlænges med en robot, der kan agere barn, som efterligner mennesker, peger og siger hund.

Jeg har forgæves forsøgt at finde en reference til den artikel, der indledte denne blog.

Leave a comment