In het tijdschrift MUSÉE (van augustus) las ik een interessant artikel van Elman Mansimov over de wetenscheppelijke methode van learning by machine.
Simpelweg komt het op het volgende neer. Als je naar een foto kijkt analyseer je het beeld waardoor er een betekenis ontstaat. Dit is wat er in een fotobespreking gebeurt. De foto wordt vertaald in woorden. Mansimov keert het ook om. Als je woorden toevoegt aan een machine die beelden van woorden kan maken heb je een nieuw beeld gemaakt met de betekenis die je aan de woorden gaf. Uiteraard ben je afhankelijk van hoe ‘goed’ de macine zijn werk doet. Deze synthese zou je kunnen betitelen als met prompts beelden maken.
Hert interview met Mansimov op de website van MUSÉE begint als volgt… INTERVIEWER STEVE SMILLER: “Je presentatie bij Fellowship Gallery op Paris Photo onthulde een voor mij onbekende geschiedenis. Namelijk de onthulling van de oorsprong van tekstprompt naar beeld in 2015. Wat bracht je op het idee dat woorden een beeld konden vormen?“
Elman Mansimov: Ik heb het altijd vanuit een informaticaperspectief bekeken. Ik studeerde destijds informatica aan de Universiteit van Toronto. Ik raakte betrokken bij een machine learning-groep die neurale netwerken trainde om een afbeelding te classificeren, of om een afbeelding te classificeren en er een bijschrift bij te schrijven. En in principe stond er conceptueel niets in de weg om hetzelfde raamwerk dat afbeeldingen van bijschriften of classificaties voorziet, gewoon om te draaien.
Als je wilt kun je het gehele, m.i. interessante, interview verder lezen op de website van MUSÉE. In het interview komt ook nog aan bod de definitievraag naar fotografie versus het AI geconstrueerde beeld.

Of het allemaal waar is voor elk beeld in elke situatie betwijfel ik. Dat maakt het beeld dat door synthese verkregen wordt ook tot een meer toevallig beeld. En tja, als je daar tevreden mee bent …