Home

Praten met een potvis: hoe onderzoekers dichter bij een Google Translate voor dierentaal komen

Met dieren praten via een soort Google Translate: wetenschappers slagen daar steeds beter in met hulp van AI. Het kan helpen om dieren beter te begrijpen, maar er kleven ook risico’s aan. Je wilt niet dat stropers dieren kunnen lokken.’

In de Caribische zee bundelen wetenschappers hun krachten om een tot voor kort onmogelijk gehouden doel te bereiken: het ontcijferen van dierentaal. Het azuurblauwe water voor de kust van Dominica vormt het decor voor een hoogmis van moderne technologie. Robotici gebruiken drones om de walvissen met siliconen zuignappen en trackers te taggen, computerwetenschappers analyseren de geluidsopnamen met kunstmatige intelligentie en biologen en taalkundigen proberen de resultaten te interpreteren. Ze maakten hun nieuwste bevindingen afgelopen november wereldkundig in het vakblad Open Mind.

Het zijn net mensen

‘Potvissen vocaliseren op een manier die heel vergelijkbaar is met mensen’, vertelt hoofdonderzoeker en taalkundige Gašper Beguš van de non-profitorganisatie Project Ceti per videoverbinding. ‘In hun luchtweg hebben ze een soort lippen die lijken op onze stembanden en waarmee ze verschillende klikgeluiden kunnen maken. Dat scala aan klikjes lijkt zo op de variatie in menselijke spraak dat we het met mensenletters kunnen transcriberen. Het einddoel is om te begrijpen waaróver de potvissen communiceren, maar daarvoor moet je eerst weten met welke bouwstenen ze dat doen, en dat laten we hier zien.’

Het potvissenproject in Dominica is geïnspireerd op de successen uit de jaren zestig, toen werd ontdekt dat walvissen zoals bultruggen zingen. Bioloog Roger Payne stelde met de opnamen een album samen, genaamd Songs of the Humpback Whale. Het werd het best beluisterde natuuralbum ooit en door de dieren dichter bij de mensen te brengen begon de publieke opinie over de walvisvangst te kantelen. In 1984 kwam er een internationaal moratorium op de commerciële walvisvaart en sindsdien krabbelen populaties weer langzaam op.

‘Mensen hebben meer respect voor de wereld als ze weten hoe die werkt’, zegt Leids hoogleraar akoestische ecologie Hans Slabbekoorn. ‘Dat geldt voor walvissen in de zee, maar bijvoorbeeld ook voor natuur in de stad. En natuurbescherming is ook in ons eigen belang – de mens is gelukkiger met natuur om zich heen. Onderzoek naar diercommunicatie houdt mensen bovendien een spiegel voor: zijn we eigenlijk wel zo uniek als we altijd dachten?’

Doordruppelen

‘Diepe modellen zijn onoverwinnelijk gebleken in voorspellende kracht’, vertelt de op bioakoestiek gespecialiseerde AI-onderzoeker Burooj Ghani van Naturalis. Hij verwijst naar de revolutie die het diepe neuraal netwerk AlexNet in 2012 ontketende. ‘Deep learning is voortgekomen uit machinelearning, waarbij je een model handmatig moest vertellen waar het op moest letten – bijvoorbeeld een bepaald patroon in vogelzang voor herkenningssoftware. Dat hoeft nu niet meer, want met meer rekenkracht en trainingsdata creëer je genoeg diepte en kan het model dat allemaal zelf.’ Het is deze technologie waarmee grote taalmodellen zoals ChatGPT de laatste jaren zijn doorgebroken.

Wetenschappers maken dankbaar gebruik van bestaande modellen in hun pogingen om dierentaal te ontcijferen. Bijvoorbeeld Gemma, een opensourcemodel dat Google vorig jaar presenteerde en dat deels is gebaseerd op Gemini, de AI-assistent van Google.

Dolfijnenonderzoekers uit Florida trainden Gemma met geluidsopnamen die ze al veertig jaar verzamelen onder wilde dolfijnen. Het resultaat, DolphinGemma, moet uiteindelijk helpen een gedeeld vocabulaire tussen mens en dolfijn te vinden. De onderzoekers hopen de dieren zeggenschap te geven en zo hun voortbestaan te waarborgen.

Het Earth Species Project heeft als doel om dierlijke communicatie te ontcijferen en gebruikt een soortgelijke aanpak. Onderzoekers namen een bestaand model van Meta en trainden het met de grootste audiodatasets ter wereld. Het resultaat, NatureLM-audio, is enorm veelzijdig. Het kan soorten onderscheiden in een kakofonie van geluiden, of melden hoeveel vogels er aan het zingen zijn. Ook kan het onderscheid maken tussen bijvoorbeeld lokroepen en alarmsignalen, een voorzichtige stap naar het vertalen van diergeluiden.

Timing

Bij het potvissenonderzoek gaf AI de onderzoekers een zetje in de juiste richting. Gašper Beguš gebruikte daarvoor een neuraal netwerk dat hij eerder ontwikkelde en dat taal leert zoals een mensenbaby. ‘Het leert woorden door te luisteren en te reageren. Onze babytaalleerder bevat kunstmatige neuronen die op stimuli reageren zoals échte neuronen dat zouden doen.’

Het grote voordeel is dat de wetenschappers kunnen interpreteren wat er in het model gebeurt. Dit in tegenstelling tot deeplearningmodellen zoals ChatGPT, dat volledige databases verslindt om tot goede resultaten te komen en functioneert als een soort black box – als je het iets vraagt komt het met een antwoord, maar eigenlijk is het niet duidelijk hoe.

Beguš: ‘Toen we het babymodel op de potvisgeluiden trainden, gaf het aan dat bepaalde aspecten van de potviskliks betekenis zouden kunnen hebben en dus als woorden zouden kunnen dienen. Daarna was er nog veel ouderwets taalkundigenwerk nodig voordat we ons realiseerden dat hun timing heel anders werkt dan bij ons – het is veel langzamer. Toen we dat doorhadden, zagen we prachtige herhalende patronen in de grafische representatie van het geluid. Qua opbouw lijken die op de bouwstenen van mensentaal, met klinkers en glijdende tweeklanken. AI hielp ons om van onze menselijke vooringenomenheid af te stappen en op een nieuwe manier te luisteren.’

Zo mens, zo dier

Dat biedt stof tot nadenken, want wat is taal eigenlijk, en waarom zouden wij mensen de enigen zijn die het beheersen? ‘Als promovendus werkte ik in het lab van Irene Pepperberg (een Amerikaanse cognitief psycholoog die taal bestudeert bij dieren, red.). Ik vond haar werk met roodstaartpapegaai Alex, die honderden mensenwoorden leerde, razend interessant. Maar ik vertelde het niemand, want taalonderzoek bij dieren was jarenlang een no-go. De heersende opvatting was dat taal alleen bij mensen voorkomt’, vertelt Beguš. ‘Gelukkig kantelt dat beeld. We kunnen juist veel over taal en onszelf leren door te kijken hoe het bij andere dieren werkt.’

‘Beroemde taalkundigen zoals Charles Hockett en Noam Chomsky kwamen met allerlei kenmerken van taal waar dieren volgens hen niet aan konden voldoen’, zegt de Nederlandse taalkundige Leonie Cornips, die werkt aan het ontcijferen van koeientaal. ‘De dominante opvatting was altijd dat mensen uniek zijn, zeker op het gebied van taal. Maar laten we eerst onderzoeken wat dieren allemaal wél kunnen communiceren – met lichaamstaal of verbaal. Ik zie taal als een breder systeem waar allerlei soorten gebruik van maken, verschillend in mate en de manieren waarop.’

Afrikaanse olifanten en penseelaapjes geven hun soortgenoten namen. Ook dolfijnen doen dat, bleek uit een analyse van duizenden uren audio met AI. Er zijn zelfs voorzichtige aanwijzingen dat tuimelaars soms namen van soortgenoten gebruiken die zelf niet aanwezig zijn. ‘Hoe cool zou het zijn dat ze dan óver die andere dolfijn praten’, zegt bioloog Laela Sayigh daarover in New Scientist.

Naast namen vonden de onderzoekers nog 22 andere fluitsignalen, die meerdere dolfijnen gebruiken en misschien wel als woorden functioneren. Sayigh en collega’s wonnen de eerste jaarlijkse prijsuitreiking van de Coller Dolittle Challenge. Ieder jaar verstrekt deze organisatie 100 duizend dollar aan een veelbelovend project op het gebied van intersoortelijke communicatie en AI, en belooft zelfs 10 miljoen dollar bij de eerste grote doorbraak.

Willen ze wel?

‘De meeste onderzoekers hebben het beste voor met de dieren waarvan ze de taal proberen te ontcijferen. Maar er zijn ook nadelen als mensen met dieren kunnen communiceren’, waarschuwt filosoof en dierethicus Bernice Bovenkerk van de Wageningen Universiteit. ‘Wie kan er straks allemaal dierentaal begrijpen? Je wilt niet dat stropers dieren kunnen opsporen of lokken.’ Bovenkerk ontving onlangs een grote beurs van de NWO om de effecten van moderne technologieën zoals AI op dierenwelzijn en de relatie tussen mensen en dieren te onderzoeken.

Bovenkerk: ‘In theorie zou het geven van een stem aan boerderijdieren kunnen bijdragen aan betere leefomstandigheden. Maar eigenlijk heb je daar geen AI voor nodig – we weten allang dat dieren complexe emoties en pijn en geluk kunnen ervaren, en dat heeft er nog niet toe geleid dat we veel beter met ze omgaan. Het is vooral zaak dat onderzoekers verder kijken dan alleen het menselijk belang. Willen dieren wel met ons praten en wat hebben zíj eraan als het zou kunnen?’

En is samenwerken met de grote AI-bedrijven niet een beetje als je ziel verkopen aan de duivel? ‘De afhankelijkheid van grote techbedrijven is lastig’, erkent Burooj Ghani van Naturalis. ‘We gebruiken voorgetrainde modellen en andere AI-tools die ze uitbrengen en dragen daarmee bij aan de uitzonderlijke machtspositie van deze bedrijven. Het is maar de vraag wat er uiteindelijk gebeurt met de data die we aan hun modellen voeren.’

Elkaar verstaan

Is AI dé toversleutel waarmee wetenschappers eindelijk het geheim van Pippi Langkous kunnen onthullen en met dieren leren praten? Hoogleraar akoestische ecologie Hans Slabbekoorn denkt van niet. ‘AI is een nieuw gereedschap, maar je moet nog altijd de juiste vragen stellen om tot echte antwoorden te komen.’

Slabbekoorn: ‘De snelle ontwikkeling van AI nodigt wel steeds meer uit tot interdisciplinaire projecten. Je moet elkaar vinden – de computerwetenschapper kent de nieuwste mogelijkheden op AI-gebied, de bioloog heeft inzicht in de bestudeerde soort en de taalkundige ziet patronen. Zo kom je toch weer op communicatie uit, want om verder te komen moeten ook die verschillende disciplines elkaar verstaan en begrijpen.’

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next