Home

Hoogleraar verliest twee jaar werk door fout in ChatGPT instellingen

Binnen twee jaar na de komst van ChatGPT was de tool onmisbaar geworden in het werk van Marcel Bucher, hoogleraar plantkunde aan de universiteit van Keulen. Hij betaalde voor ChatGPT Plus en gebruikte het systeem dagelijks: voor e-mails, cursusbeschrijvingen, de structuur van beursaanvragen, het herschrijven van artikelen, het voorbereiden van colleges, het maken en analyseren van tentamens en zelfs als interactief hulpmiddel in de les. ChatGPT was snel en soepel en bood hem een soort werkplek waar hij steeds op kon terugvallen.

Bucher vond de tool niet foutloos qua feiten, maar wél stabiel als werkomgeving. ChatGPT onthield gesprekken, bouwde voort op eerdere versies van teksten en maakte het mogelijk om oude concepten weer op te pakken en verder te bewerken. Juist die continue toegang gaf hem het gevoel dat zijn werk veilig stond. Hij gebruikte de chatgeschiedenis en projectmappen als een soort digitaal archief waarin twee jaar aan zorgvuldig opgebouwde academische inhoud zat.

In augustus besloot hij de optie voor "data consent" in de instellingen tijdelijk uit te zetten. Hij wilde weten of hij alle functies van het model kon blijven gebruiken zonder zijn gegevens met OpenAI te delen. Op dat moment gebeurde iets wat hij niet had verwacht: al zijn chats verdwenen en alle projectmappen waren leeg. Twee jaar aan gestructureerd werk was weg, zonder waarschuwing, zonder terugdraai-optie, zonder melding dat de verwijdering definitief was. Alleen een leeg scherm bleef over. Van sommige gesprekken had hij losse kopieën opgeslagen, maar grote delen van zijn werk waren voorgoed kwijt.

In eerste instantie ging hij ervan uit dat het om een fout ging. Hij probeerde andere browsers, apparaten en netwerken, verwijderde de cache, installeerde de app opnieuw en zette de instellingen meerdere keren aan en uit. Niets bracht de data terug. Daarna nam hij contact op met de helpdesk van OpenAI. De eerste reacties kwamen van een AI-ondersteuningstool. Pas na herhaalde vragen kreeg hij antwoord van een medewerker van vlees en bloed, maar de boodschap bleef identiek: de gegevens waren permanent verwijderd en niet terug te halen.

Volgens Bucher ging het niet om losse aantekeningen of wat vrijblijvende chats, maar om uitgewerkte projectmappen met meerdere conversaties per onderwerp. Daarin zaten ruwe teksten, uitgewerkte ideeën en uitgeprobeerde versies van subsidieaanvragen, colleges, lesmateriaal, paperconcepten en analyses van tentamens. Hij omschrijft dit als de intellectuele steigers die hij in twee jaar had opgebouwd. Door één instelling aan te passen, was dat hele raamwerk in één klap weg.

De zaak legt volgens hem een pijnlijke zwakte bloot, juist nu universiteiten en onderzoekers steeds vaker worden aangespoord om generatieve AI in hun werk te verweven. Onderzoekers gebruiken ChatGPT voor schrijven en plannen, opleidingen experimenteren met AI in het curriculum. Maar deze diensten zijn niet gebouwd volgens de eisen die in de wetenschap gelden voor betrouwbaarheid en verantwoording. Als één klik onherstelbaar jaren werk kan wissen, vindt hij dat ChatGPT in deze vorm niet volledig veilig is voor professioneel gebruik. Zeker niet als je, zoals hij, maandelijks betaalt en mag verwachten dat er basisbeveiliging is, zoals een duidelijke waarschuwing, een tijdelijke herstelmogelijkheid en een vorm van back-up.

In de reactie aan Bucher wees OpenAI op "privacy by design": als een gebruiker datadeling uitzet, worden alle gegevens volledig en zonder rest verwijderd. Het bedrijf bevestigde dat, eenmaal gewist, chats niet meer zijn terug te halen; er is geen interne back-up of redundantie waarmee dat alsnog kan. Vanuit hun perspectief kwam het bedrijf daarmee de privacywens van de gebruiker direct na: zijn data waren meteen weg toen hij dat in feite verzocht. Aan vakblad Nature liet OpenAI weten dat er bij het handmatig verwijderen van een losse chat wél een bevestigingsvraag verschijnt, maar dat er bewust geen hersteloptie is, via app, interface, API of support. Dat zou passen bij privacyregels en best practices rond gebruikersdata.

OpenAI voegde eraan toe dat gebruikers zelf back-ups moeten maken van professioneel werk dat zij in ChatGPT ontwikkelen. Wie zijn werk echt wil bewaren, moet dat dus buiten het platform opslaan. Het bedrijf verwijst in dit verband naar een hulpartikel over het verwijderen en archiveren van chats. Voor Bucher blijft de conclusie dat een tool die zo diep in het academische werkproces is doorgedrongen, cruciale basiszekerheden mist, en dat veel onderzoekers zich daar pas van bewust worden als het al te laat is.

Source: Fok frontpage

Previous

Next