Zoals ik het interpreteer, ziet de uitlegbaarheid van AI toe op beide aspecten. Hoe hebben de genomen stappen die de AI heeft genomen geleid tot een bepaalde ‘output’ (afgezet tegen het gewenste ‘menselijke’ output)? Ik zou dus zeggen dat de verklaarbaarheid van een uitkomst afhankelijk is van de uitleg van de genomen stappen.
@Arnoud hoe kijk jij hier tegen aan?