Wie veel met smartphonefotografie bezig is, heeft er vast wel eens van gehoord: het fotoverwerkingsalgoritme van Apple (en andere fabrikanten) zou zich schuldig maken aan het overmatig verscherpen van foto's, tot grote frustratie van sommige gebruikers. Je hoeft maar kort op Google of iPhone-fotografiesubreddits rond te kijken en er zijn altijd wel klachten te vinden. Veel mensen zweren dat dit het geval is vanaf de iPhone 12-serie, toen Smart HDR 3 werd uitgebracht. Anderen claimen dat het te danken is aan Deep Fusion, een algoritme van Apple dat al langer aanwezig is. Hoe dan ook: er is een vocale groep mensen die niet blij is met de manier waarop hun telefoon de gemaakte foto's verwerkt.Dat geldt dus niet alleen voor iPhones, want elke telefoonfabrikant zet steeds harder in op computational photography. Logisch, want kleine smartphonesensors kunnen nou eenmaal veel minder licht (en daarmee ook detail, om maar iets te noemen) opvangen dan grotere APS-C- of fullframecamerasensors die je in systeemcamera's terugvindt. Toch verwachten consumenten elk jaar een nieuwe telefoon die nog betere foto's kan maken dan het model daarvoor, ondanks de piepkleine camerasensors. De natuurkunde zegt dat dat niet kan. Dus of je daar nou op zit te wachten of niet: de beeldverwerking van smartphones zal steeds extremere vormen aannemen, zoals het eigenlijk al jaren doet.
Marc Levoy, een grote naam in de wereld van beeldverwerkingsalgoritmen, gaat daar samen met Adobe nu verandering in brengen met Project Indigo. Levoy kun je kennen als een van de mensen achter geliefde Google Camera-functies zoals HDR+ en Night Sight. Tegenwoordig is hij werkzaam bij Adobe als 'Adobe Fellow' en sleutelt hij daar al enkele jaren aan onder andere een universele camera-app, die nu uit de doeken is gedaan als Project Indigo en nu als bèta beschikbaar is op enkele iPhone-modellen.
Wat Project Indigo anders maakt dan de meeste camera-apps, is de pijplijn waarmee foto's verwerkt worden op het moment tussen het indrukken van de sluiterknop en het verschijnen van de foto op je scherm. Veel algoritmen nemen meerdere onderbelichte shots om opgeblazen hooglichten in je foto te voorkomen en details te bewaren. Indigo doet dat ook, maar neemt naar eigen zeggen nog veel meer shots, tot een maximum van 32. Bovendien onderbelicht het de shots nóg meer en past het minder smoothing toe om ruis tegen te gaan. Levoy zegt dat ze liever wat meer ruis in de foto's laten zitten om zo overdreven gladde gebieden, ofwel gekke artefacten, te voorkomen en texturen te behouden. Veel hedendaagse telefoons worden in lastige scènes door deze artefacten geplaagd.
Het doel dat Project Indigo daarmee hoopt te behalen, is natuurlijkere ogende foto's. Volgens Levoy horen ze vanuit de community dat mensen moe worden van de kunstmatige look die steeds aanweziger lijkt te worden op veel smartphones. Door minder sterk in te zetten op technieken zoals tone mapping of gemaskeerde aanpassingen, waarbij er allerlei trucjes met de belichting worden uitgehaald om de deze over de gehele foto zo correct mogelijk te maken. Zo claimt Adobe foto's te kunnen realiseren die eerder aan shots van dslr-camera's doen denken dan overbewerkte, kunstmatige foto's van een kleine telefoonsensor. De output moet overeenkomen met Adobe's 'Adaptive Color'-kleurprofiel.
Dat klinkt allemaal erg mooi, maar we willen het natuurlijk eerst zien voordat we het geloven. Ik heb daarom Project Indigo op mijn iPhone 15 Pro gezet, om te kijken wat je er allemaal mee kunt doen en hoe de foto's van Indigo zich verhouden tot de standaard iPhone-camera-app. We hebben populaire apps zoals Halide en ProCam bewust niet meegenomen in de vergelijkingen, omdat deze niet op Android-telefoons verschijnen en Project Indigo dat wel doet. Deze preview gaat dus niet over welke camera-app de beste iPhone-foto's oplevert.
Source: Tweakers.net