Home

Doet het succes van de veel goedkopere chatbot DeepSeek de AI-bubbel barsten?

De nieuwe AI-chatbot DeepSeek lijkt voor een fractie van de kosten te kunnen wedijveren met gevestigde namen als ChatGPT of Gemini. Op de beurs glijden chipfabrikanten en AI-ontwikkelaars daardoor onderuit: misschien was de goudkoorts voor computerchips overdreven. Is deze reactie terecht?

is nieuwsverslaggever van de Volkskrant, met tech als specialisme.

Wat maakt DeepSeek zo bijzonder?

Het nieuwe model, voluit DeepSeek-R1, verscheen vorige week in de appwinkels. Het kreeg de wind in de zeilen toen het maandag wereldwijd ChatGPT overvleugelde op de ranglijst van populairste apps in de App Store. DeepSeek, van het gelijknamige Chinese bedrijf, is net als ChatGPT een chatbot en kan even vaardig als de Amerikaanse concurrent taal- en wiskundevragen beantwoorden.

Vooral opmerkelijk was de claim van DeepSeek dat het ‘slechts’ 5,6 miljoen euro zou hebben gebruikt om het model te ‘trainen’. Het trainen van chatbots is een zeer kostbare stap in het creëren, waarbij ze worden gevoed met gigantische bakken data. Meta, Google en ChatGPT-maker OpenAI geven honderden miljoenen euro’s uit aan de training.

Hoe geloofwaardig zijn de claims van DeepSeek?

Over het trainen van DeepSeek is weinig bekend. Het is onduidelijk of het bedrijf daadwerkelijk een relatief klein aantal chips gebruikte om DeepSeek-R1 te trainen.

De reacties van de markten zijn geen loos alarm, aldus Jelle Zuidema, hoofddocent natuurlijke taalverwerking aan de Universiteit van Amsterdam. Uit de openbare data van DeepSeek die hij heeft ingezien, maakt hij op dat het model zowel klein als capabel is. Het AI-brein van DeepSeek bestaat uit 70 miljard ‘parameters’ – variabelen die het systeem gebruikt om een vraag van een gebruiker te beantwoorden. De Amerikaanse concurrentie heeft voor vergelijkbare resultaten 1,8 biljoen parameters nodig, 25 keer zoveel.

De claim dat DeepSeek efficiënter is in het gebruik, is dus zeer geloofwaardig, aldus Zuidema. Dat wereldwijd chatbots enorm populair zijn, is een steeds belangrijker aspect van de grote vraag naar chips en computerkracht. Deze vraag ondermijnt DeepSeek, meent Zuidema.

Hoe heeft DeepSeek deze sprong vooruit kunnen maken?

DeepSeek begon met het maken van een AI-model dat volledig was gericht op het oplossen van wiskundesommen. Dat is vernieuwend, vertelt Zuidema, omdat de meeste chatbots worden gemaakt met taal als startpunt. Vervolgens gebruikte DeepSeek dit rekenmodel om onder meer een eigen taalmodel te maken en Llama, de gedeeltelijk openbare en relatief kleine chatbot van Meta, te optimaliseren. Dat blijkt veel goedkoper.

Opvallend is ook dat de beurswaarde van Meta na het verschijnen van DeepSeek juist steeg, met 1,5 procent. Aan het begin van de AI-hausse besloot Meta dat het niet kon opboksen tegen OpenAI en Microsoft, en zette daarom in op de ‘open route’, door de code van Llama te delen. ‘Ze hopen daarmee een eigen ecosysteem te creëren, dat zij met Llama controleren’, vertelt Zuidema. Het succes van DeepSeek is dus ook een overwinning voor Meta.

Mooi toch, een relatief goedkope chatbot. Waarom is de AI-wereld daarvan zo van slag?

DeepSeek veroorzaakte een enorme waardedaling van een handvol bedrijven op de beurzen. Die is te danken aan het feit dat DeepSeek een heersend idee de grond in lijkt te hebben geboord: dat eindeloze hoeveelheid chips nodig zijn voor AI.

Het voornaamste slachtoffer daarvan is chipfabrikant Nvidia. Na het sluiten van de Amerikaanse beurzen maandag had het bedrijf 568 miljard euro aan marktwaarde verloren. Nog nooit kende een Amerikaans bedrijf zo’n waardedaling in één dag.

‘Bedrijven als OpenAI en Microsoft zeggen: hoe meer chips wij kopen, hoe beter onze AI-producten’, aldus Zuidema. ‘Dat idee werd tot een soort religie verheven door investeerders. DeepSeek claimt nu dat innovatie ook mogelijk is met minder computervermogen.’

De bedrijven die deze ‘religie’ van de eindeloze hoeveelheid chips stimuleerden, merken het sterkst de gevolgen van het dogma-afbrekende DeepSeek. Zo is de beurswaarde van Microsoft, dat OpenAI financieel steunt, gedaald met 2,1 procent. Alphabet, het moederbedrijf van Google, ging 4,2 procent omlaag in waarde. De koers van ASML, de Nederlandse fabrikant van machines die chips maken, zakte sinds vrijdag met 12,7 procent.

Zien we hier de AI-bubbel barsten?

Ondanks deze schokgolven op de beurzen denkt Bert Colijn, hoofdeconoom van ING Nederland, niet direct dat de AI-bubbel zal barsten. Hoe opmerkelijk de koersdaling van bijvoorbeeld Nvidia ook is, het bedrijf is momenteel nog steeds 2,75 biljoen euro waard. ‘DeepSeek heeft misschien blootgelegd dat er minder chips nodig zijn’, vertelt Colijn, ‘maar het is nog de vraag hoe dat de toekomst van AI gaat beïnvloeden.’

Ook belangrijk is dat DeepSeek veel data over de gemaakte AI-modellen publiceert – in tegenstelling tot OpenAI. De computercode achter DeepSeek-R1 bijvoorbeeld is openbaar. Het bedrijf publiceert de gebruikte trainingsdata echter niet, terwijl dat essentieel is om de chatbot na te maken.

Colijn beschouwt de impact van DeepSeek mede door deze transparantie als goed nieuws: ‘Over het algemeen profiteert de economie ervan als technologieën makkelijk wijdverspreid raken’, zegt hij.

Zuidema is het met hem eens: ‘Het succes van een relatief klein bedrijf vermindert de dominantie van een handvol Amerikaanse bedrijven’, zegt hij. ‘Hoe democratischer de technologie, hoe beter.’

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next