I de forgangne ugers tid er folk i medierne (både de social-digitale og de traditionelle) begyndt at diskutere Chomskys sprogteori. Det hører til sjældenhederne at sprogteori bliver nyhedsværdigt, så jeg har fulgt med. Konteksten er OpenAIs nye AI model, en chatbot baseret på en såkaldt Large Language Model (LLM) som virkelig er meget dygtig til at forstå sprogligt input og producere meningsfuldt og relevant sprogligt output. Den hedder ChatGPT-4 og den er så dygtig at den kan skrive små historier om emner der aldrig før er nogen der har skrevet om, og den kan lave limericks der rimer rigtigt og har den rigtige rytme, den kan programmere små programmer ud fra verbalt input og svare fornuftigt på spørgsmål om alt imellem himmel og jord. Alt det kan den gøre alene fordi den har trænet i at finde mønstrene i et meget stort datakorpus af tekst på internettet.
Det store teoretiske spørgsmål som sproginteresserede mennesker på internettet diskuterer er om ChatGPT-4 dermed har modbevist Chomskys sprogteori, der i sin mest generelle formulering siger at menneskers hjerner er forprogrammeret fra fødslen med nogle grammatiske mønstre der sætter babyer i stand til at lære et sprogs grammatiske regler selvom de typisk kun hører relativt få ord og sætninger. En nyfødt baby er så at sige tunet ind til at fortolke de sproglige input den hører på en måde så det passer ind i de grammatiske systemer den er født med. Et af de centrale argumenter som Chomsky har brugt er det argument der kaldes “Poverty of the Stimulus“, som siger at det sproglige input som babyer får er alt for fattigt til at kunne understøtte sprogindlæring med mindre der er nogle medfødte sprogstrukturer i hjernen. Det er de medfødte strukturer som Chomsky kalder Universal Grammar, og som han mener forklarer hvorfor menneskets sprog er som det er. Chomsky har også argumenteret for at selv med store datasæt er det svært eller umuligt at lære grammatiske regler, fordi man jo kun får eksempler på rigtig grammatik, men aldrig på hvad der er forkert.
Modbeviser LLM robotter Universal Grammar?
Som svar på AI-udfordringen skrev Chomsky selv et indlæg i New York Times hvor han kommenterede på AI-botternes relevans for hans sprogteori. Her fastholdt han at de ikke ville være i stand til at lære rigtigt menneskesprog, og at der ville være sætninger som mennesker ville forstå med det samme som AI ville misforstå. Han gav også nogle eksempler på sætninger som AI måske ikke ville kunne forstå fordi de er syntaktisk tvetydige, men de viste sig at være uheldige for AI modellerne forstod dem med det samme. Et andet argument var at AI’en ville kunne lære sproglige mønstre der er helt umulige for mennesker at lære, netop fordi vores sprogindlæring er begrænset af den måde vores hjerner fungerer på. Men Chomsky’s stærkeste argument imod at sætte for store håb til AI’ens intelligens er at den slet ikke er intelligens, men kun imitation af intelligens, ren hukommelse snarere end tanke og forståelse.
Computerlingvisten Steven Piantadosi skrev som en slags modsvar en artikel der argumenterer for det modsatte: at ChatGPT-4 absolut modbeviser Chomskys sprogteori fordi den netop kan udføre mange af de kognitive opgaver som det ifølge Chomsky ville være umuligt at udføre uden en sæt biologisk medfødte mentale strukturer. For eksempel kan den sagtens forstå Chomskys berømte eksempel på forskellen mellem betydning og grammatik, nemlig det at man kan lave sætninger der er meningsløse men som alligevel følger de grammatiske regler –for eksempel “farveløse grønne idéer sover rasende”. Da han bad den om det, kunne ChatGPT endda lave ti helt nye eksempler på sætninger bygget på samme model. Dog var der ingen af sætningerne der havde den samme grad af selvmodsigende meningsløshed som Chomskys eksempel havde: de havde bare farveord der hvor Chomskys sætning havde farveord, verber hvor Chomskys sætning havde verbum, biord hvor Chomskys sætning havde biord, og så videre. Den kopierede strukturen, men forstod ikke betydningen. Men Chomskys argument var netop at det skulle være strukturen der ikke kunne læres rent statistisk. Piantadosi spurgte til sidst AI’en om at vurdere om dens teknologi modbeviste Chomskys teori eller ej: Den konkluderede at teknologien modsiger Chomsky på flere måder. Først viser den at grammatik næppe er så biologisk funderet og menneskeligt unikt som Chomsky siger, for en maskine kan altså reproducere det stort set grammatisk fejlfrit. Og den viser at sprog måske slet ikke er så regel baseret som Chomsky mener, men godt kan være baseret på statistisk induktion fra eksempler. Og det er altså hvad AI’en selv mener om den sag. Men måske skal vi ikke bare tage dens konklusion for gode varer, for der er også gode argumenter for en mere nuanceret konklusion hvor Chomsky måske har mere ret end Piantadosi og ChatGPT4 mener.
For det første er Chomskys argument jo møntet på menneskeligt sprog. Han siger at sprog er medfødt i mennesker og at mennesker har indbyggede begrænsninger der giver vores sprog sin unikke form. Det at en maskine kan gengive menneskesprog uden sådanne begrænsninger betyder jo ikke nødvendigvis at mennesket ikke har dem. Min ven lingvisten Rory Turnbull gav på Twitter et godt eksempel: Vi kan nok godt blive enige om at evnen til at flyve er medfødt i de flyvende fugle. Det at vi mennesker kan bygge en flyvemaskine der også kan flyve uden at det er en medfødt evne, har derimod ingen betydning for hvordan evnen opstår i fugle. På samme måde betyder det, at vi kan bygge noget der imiterer sprogtilegnelse statistisk, ikke nødvendigvis at mennesker ikke har medfødte sprogtilegnelsesevner. Mennesker lærer tydeligvis sprog på en meget anderledes måde end AI gør – og med mindre data. Så det fortæller os ikke nødvendigvis ret meget om hvordan mennesker lærer sprog: Det gør vi jo modsat AI i en social kontekst, som alt tyder på at vores hjerner er ekstremt tunet ind på, og vi forankrer også modsat AI betydning i den sociale og fysiske kontekst.
En anden er at der jo i menneskelige sprog er visse begrænsninger som sprogene tilsyneladende opererer inden for og som sjældent eller aldrig brydes. Vi ved ikke så meget om hvor de kommer fra, om det er semiotiske/informationsmæssige principper eller biologiske begrænsninger. Men vi kan formode at AI ikke nødvendigvis har de samme begrænsninger (eller måske nogle andre) og at de nok ville kunne lære sprog som ikke ville være praktisk lærbare for mennesker – en computer har måske større chance for at lære at forstå hvalsang end mennesker har, for eksempel.
Så de helt store spørgsmål som Chomskyanske generativister skændes med kognitive og funktionelle lingvister om, nemlig hvorvidt der er biases eller medfødt viden der strukturerer og faciliterer menneskelig sprogindlæring, siger AI ikke rigtig noget om. Den viser kun at det er muligt at lære at gengive sprog ud fra rent statistisk læring. Men det tror jeg allerede de fleste af de ikke-Chomskyanske lingvister der arbejder med sprog i hjernen allerede var klar over at det er. Men det vigtigere spørgsmål (hvis vi vil forstå menneskeligt sprog og tanke) er hvordan og hvorfor det kan lade sig gøre.
Kan ChatGPT-4 lære Nahuatl?
Jeg lavede et lille forsøg der lærte mig noget om hvordan ChatGPT lærer sprog og hvor anderledes det er en den måde vi mennesker gør det på.
Jeg arbejder blandt andet med beskrivende lingvistik, det er den disciplin af lingvistik hvor vi indsamler tekster på sprog der ikke er nedskrevne eller beskrevne, og beskriver deres grammatik ud fra detaljeret analyse af de tekster vi indsamler. For at en lingvist kan beskrive et sprogs grammatik skal der faktisk ret få tekster til, meget tit skal man bruge under 50-timers tale (i transskriberet form). For mennesker skal der altså faktisk kun et meget lille sæt tekster til for at man kan forstå og beskrive de grammatiske regler der er nødvendige for at kunne tale et sprog.
For nahuatl, det mexicanske sprog sprog jeg arbejder med er der efterhånden en hel del materiale online, og ChatGPT har adgang til det. Faktisk er det rigtig mange tekster der ligger online, mere end nok til at et menneske ville kunne lære sproget ud fra dem. Der er også flere grammatiske beskrivelser og læringsmaterialer. Men det er slet ikke nok til ChatGPT – den kan ikke oversætte nahuatl overhovedet, selvom man kan se at den har haft adgang til materialerne.
Jeg begynder med at spørge ChatGPT-4 om den kan oversætte fra nahuatl.
ChatGPT-4: “Yes, I can translate text from Nahuatl to English. Please provide me with the Nahuatl text you would like to have translated.”
Mig: “How do you say “I speak” in Nahuatl?”
Chat-GPT-4: “”I speak” can be translated to Nahuatl as “nicpampa”, which is the first person singular form of the verb “pampa”.”
Dette er forkert, “at tale” hedder tlahtoa på nahuatl, og pampa er ikke et udsagnsord men et såkaldt relationssubstantiv der betyder “fordi”. Nic– er faktisk en hyppig begyndelse på udsagnsord i nahuatl fordi præfikset ni- ganske rigtigt betyder “jeg” og objektspræfikset -c- (udtalt k) betyder “den/det”. Men man kan ikke sætte nic foran relationssubstantivet pampa, og betydningen er helt forkert. Jeg spørger den igen hvad “pampa” betyder, for at give den en chance for at erkende sin fejl, men det gør den ikke.
Mig: “What does “pampa” mean in Nahuatl?”
ChatGPT-4: “”Pampa” is a verb in Nahuatl that means “to speak”. It is commonly used in phrases like “nicpampa” (I speak) or “tlapampa” (to speak well).”
Tværtimod opfinder den et nyt eksempel som også er forkert. Man kan godt sætte stavelsen tla- på pampa og det betyder noget, så tlapampa ville være “på grund af noget”, ikke “at tale godt”. Jeg går videre med at spørge om hvordan man siger “jeg elsker det” på nahuatl. Det gør jeg af to grunde dels fordi den her bare skal identificere verbet jeg elsker og sætte de to præfikser ni- og –c- på, som vi allerede har set at den kender, og dels fordi “jeg elsker dig” som på nahuatl hedder nimitztlazohtla nok er den nahuatl-sætning der findes flest gange på internettet, og dermed i dets korpus (på valentinsdag hvert år er der altid en masse mennesker der skriver “jeg elsker dig” på alle mulige sprog).
Mig: “how do you say “I love it” in Nahuatl?”
ChatGPT-4: “To say “I love it” in Nahuatl, you can use the phrase “niyazko”, which is the first person singular form of the verb “yazkua” (to love) combined with the object pronoun “it”. So “I love it” can be translated to Nahuatl as “Niyazko”.”
Så den har identificeret præfikset ni– som betyder “jeg” korrekt, men der er ikke noget verbum der hedder “yazkua” på nahuatl – selvom der kunne være det fordi alle bogstaverne findes på nahuatl og godt kan forekomme i den sammensætning. Den har altså selv opfundet et verbum, der ligner et nahuatl-ord uden at være det. Men dens forklaring af hvordan man tilføjer et tredje person entalsobjekt stemmer ikke rigtigt, hvis verbet er “yazkua” hvordan bliver det så til “yazko” og hvad er det for et pronomen den nævner?
Mig: “How is the verb yazkua conjugated?”
Chat GPT-4: “Here are the present tense conjugations of the Nahuatl verb “yazkua” (to love):
- Ni-yaz-ko (I love it)
- Ti-yaz-ki (you love it)
- Yi-yaz-kia (he/she/it loves it)
- Ti-yaz-kinech (you [plural] love it)
- Ni-yaz-kiwa (we love it)
- Yi-yaz-kin (they love it)
Note that “yazkua” is an irregular verb in Nahuatl, so its conjugation does not follow the regular pattern for verbs ending in “-ua”.
Her er det tydeligt for mig at ChatGPT ikke kan nahuatl overhovedet. Den forstår tilsyneladende nahuatls fonologi ret godt (altså reglerne for hvilke lyde/bogstaver der findes og hvordan de kan sættes sammen til ord) og den forstår at Nahuatl er et agglutinerende sprog der sætter lange ord sammen af forskellige præfikser, suffikser og rødder. Den har også identificeret to præfikser korrekt: ni– “jeg” og ti– “du”. Men indholdsordene og de grammatiske regler opfinder den simpelthen selv “on the fly“. Det er interessant at den vælger at sætte det affiks der angiver subjekt før verbet og det der angiver objektet efter verbet, selvom de begge to er præfikser på rigtig nahuatl. Det tyder på at den overfører mønstret fra engelsk SVO syntaks. Men det den laver er ikke oversættelse, den opfinder et helt nyt sprog!
Da jeg så hvordan ChatGPT lader som om den kan nahuatl, forstod jeg på en ny måde hvordan LLM virker, og hvorfor det ikke er som menneskeligt sprog eller menneskelig intelligens. ChatGPT-4 imiterer bare sprogets strukturer – den genkender mønstre og sætter stavelser og ord sammen så det ligner nahuatl, men den får ikke betydningen med. Den kan kun producere stukturer som den har set. Når den svarer på vores spørgsmål genkender den spørgsmålet og ved hvilke svar der findes i dens datamateriale og laver et svar der ligner de svar. Men den ved ikke om de svar er rigtige, og den forstår ikke principperne bag. Selv hvis man i chatten fortæller den at det den gør er forkert og hvordan den skal gøre det rigtigt, så undskylder den ærbødigt og siger at den skal prøve at gøre det rigtigt, og laver derefter den samme eller en lignende fejl. Den kan tilsyneladende ikke lære information ved at blive instrueret, og heller ikke ved at “læse” de lærematerialer der ligger i dens tekstdatabase. Den ser åbenbart kun på de statistiske mønstre. Og den skal have et meget større datamateriale end de par tusinde Nahuatl-tekster der ligger til fri afbenyttelse på nettet for at kunne finde de rigtige mønstre i Nahuatl.
Vi kan måske konkludere at vores lille analyse giver et point til Chomsky, fordi ChatGPT-4 i hvert fald ikke kan lære et sprog ud fra et datamateriale der er så begrænset som det er for Nahuatl, selvom et menneske sagtens ville kunne det.
Magnus Pharao Hansen er sprogantropolog og adjunkt i Indianske Sprog og Kulturer ved Københavns Universitet. Han forsker i sproget nahuatl og i både sprogpolitisk og sproghistorisk kontekst.
Forsidebillede: Midjourney/Ernst Poulsen