Wat maakt de mens? Paragraaf 6.4 – Enacted
Op pagina 129 wordt een schematische weergave van een eenvoudig neuraal netwerk van processoren, oftewel neuronen die met elkaar verbonden zijn, getoond.
Hoe leert AI? Bedenk dat een computer net als een aan/uit-knop twee mogelijkheden heeft: Aan of Uit.
Stel je voor dat je met een knop kunt bepalen of iets aan of uit gaat en je geeft AAN de code 1 en UIT de code 0. Dan kun je dus in het geval van de afbeelding op pagina 129 het volgende doen:
Je voert een vijftal foto’s in. Bij iedere foto bepaal je of er op deze foto een bloem staat: 1 (AAN=JA) of 0 (UIT=NEE). Vervolgens kun je in een volgende stap de vraag stellen of het een roos is (1) of niet (0) en uiteindelijk kun je tonen wat de werkelijk goede foto (1) is en wat niet (0). Waarschijnlijk maakt AI talloze fouten en iedere keer als AI tot een foute conclusie komt, dan weet de AI dat een netwerkproces in het geheel fout is (0). Dus deze vorm wordt dan niet meer uitgevoerd. En zo kan de AI een volgende verbinding uitproberen. De AI kan vervolgens ook kijken of de kleur tot een goede (1) of slechte (0) uitkomst leidt. De AI kan zelfs een link leggen tussen de ondergrond en het goede antwoord. AI kan miljoenen factoren meewegen als goed (1) of fout (0) en zo leert het AI uiteindelijk door miljoenen dingen in korte tijd af te wegen als goed (1) of fout (0) en leidend tot het juiste (1) antwoord. AI kan alles meewegen en komt soms tot het goede antwoord, zonder dat we als mensen begrijpen hoe tot het antwoord is gekomen.
Language Learning Models (LLM) zoals ChatGPT werken ook als een neuraal netwerk. De AI analyseert de taal door miljoenen artikelen als data in statistiek weg te werken. Denk hier eens aan:
Welk woord volgt er na “Ik”. De AI zou kunnen zeggen dat in de meeste gevallen “ben” zal volgen. Dus de AI schrijft: “Ik ben”. En zo kun je language genereren zonder dat de AI enig idee heeft wat de betekenis is van de gegenereerde tekst. Het model past de meest voor de land liggende letters, woorden, zinnen, etc. bij elkaar.
Ander voorbeeld: Stel je stelt een vraag (in het Engels) aan ChatGPT: “Are we going home?”. Dan zal het AI-model de drie letter “ing” in going als drie letters beschouwen die heel vaak gebruikt worden in talking, walking, flying, etc. De AI leert op deze manier dat -ing geen bijzondere woordcombinatie is en zal ook leren dat in een vraag van een gebruiker -ing niet leidt tot een bruikbaar antwoord voor de gebruiker. Het woord “home” in de vraag is echter een woord wat niet regelmatig in een vraag wordt gebruikt. AI zal leren kernwoorden te erkennen en wellicht leren hoe kernwoorden in alle setjes teksten te zoeken. Maar hoe het zoekt is weer alleen gericht op dat wat werkt bij de gebruiker (1 dus). En hoe het komt tot dat wat werkt, wordt steeds onduidelijker.
De computationele benadering vertrekt vanuit input -> verwerking -> output. Is de output (0 – niet goed), dan probeert de AI het volgende: input -> nieuwe verwerking -> nieuwe output, totdat de output (1 – klopt).
De filosofen van de belichaamde cognitie vertrekken vanuit het idee dat input niet slechts een kwestie is van waarnemen, maar dat de input bij de mens (en wellicht dus ook een technologie) een kwestie is van het waarnemen van de omgeving én het bewegen in een ruimte (op zoek naar iets). Het is dus én-én. Wat maakt de mens? Als een wezen waarbij de “input” gevormd wordt door zowel waar te nemen als te bewegen in de wereld. En terwijl er wordt bewogen, neemt de mens iets nieuws waar en verwerkt hij deze input op een andere manier en komt er ook een andere output. En uit deze output wordt er iets nieuws geleerd en opgeslagen (herinnering) die weer mee wordt genomen in hoe men nieuwe ontdekkingen gaat doen.
De filosofen van de gesitueerde cognitie vertrekken vanuit het idee dat de mens motorisch gezien zich ook ontwikkelt. Het dorsale pad (het-waar-of-hoe systeem) zoals grijpen en pakken ontwikkelen zich tegelijkertijd met het ventrale pad (wat-systeem) en daarmee het onderzoek naar wat iets is: “Hé, dat is een lollie!”. De input in deze wordt dan ook een zaak waarbij de mens weet hoe dingen aan te pakken (letterlijk en figuurlijk), maar daarbij ook al aanpakkende ook leert wat iets is.
Denk eens na. Is het schema:
Input (ik pak iets) -> verwerk dat wat ik grijp (hé, een hamer) -> output (heb geleerd wat een hamer is).
Zo werkt het schema dus niet bij de filosofen van het gesitueerde lichaam.
Het schema is m.i. meer:
Input (ik pak iets en al doende leer ik tegelijkertijd wat het is) -> in verwerk wat ik leer en hoe mijn omgeving eruit ziet -> output (heb geleerd hoe de relatie tussen mijzelf en de wereld eruit ziet).
Bij de filosofen van de uitgebreide geest, stellen de filosofen dat enerzijds de functies van ons brein ook gecompenseerd kunnen worden door dingen in de buitenwereld (een briefje kan ook een soort van harde schijf worden) en anderzijds worden instrumenten in de buitenwereld (zoals bijvoorbeeld een pen of een telefoon of een microscoop) meegewogen in iedere overweging / ieder denkproces. Je zou kunnen stellen dat de TikTok-app een uitbreiding van onze (denkende) geest is. Terwijl we denken en conclusies trekken, wegen we impliciet talloze instrumenten en dingen mee in de buitenwereld en dan moeten we dus de vraag stellen of de buitenwereld wel zo “buiten” is of dat er zaken zijn in de buitenwereld die we meewegen en dus onderdeel zijn van de (denkende) geest.
Bij AI bijvoorbeeld zou je kunnen stellen dat de zelfrijdende auto zelf leert te rijden, maar dat zo’n auto misschien ook andere auto’s en de keuzes van deze andere auto’s zou kunnen meewegen in de eigen routes en rijden. Of een leraar die een lesprogramma bedenkt, maar in zijn bedenkingen ook onbewust en bewust de feedback van medeleerlingen meeweegt. De leerlingen zijn een uitbreiding van het denken en worden actief meegewogen. AI zou ook geleerd kunnen worden om niet zozeer AI (Artificial Intelligence) te worden, maar AGI (Artificial General Intelligence). Een intelligentie die alles mee wil wegen alsof het één grote (uitgebreide) geest is.
Op pagina 146 (onderaan) staat: “Maar zelfs als je die drie aspecten van cognitie benadrukt, hoef je de computationele cognitiewetenschap nog steeds niet te verwerpen”. Je kunt de Input (en waar de AI zich op moet richten i.r.t. de “buiten”-wereld) geschikt maken en het model input-verwerking-output en feedback (0 of 1 -> het leren) aanpassen. Het model kan worden verbeterd (p. 147, bovenaan).
Het enactivisme BREEKT met het idee dat we zoals een computer het leven kunnen leren begrijpen in termen van informatie die verwerkt wordt, vertaald naar representaties, waarbij het brein wordt gezien als een computer (input – verwerking – output – feedback).
- Leg uit wat het begrip Autopoiesis betekent in het Oud-Grieks én zoals omschreven door de bioloog Humberto Maturana.
- Een cel blijft leven “(…) doordat alle processen samen alle onderdelen blijven voortbrengen” (p. 148). Alle onderdelen zijn producent van het totaalproces en totaalproduct van het proces. Ieder autonoom onderdeel is niet zozeer gesitueerd of ingebed in een totaal, maar onderdeel van het totaal en het produceert het totaal en het totaal produceert het autonome onderdeel.
Leg uit wat er wordt bedoeld door Maturana en Varela met “structurele koppeling” (p. 148) en het afstoten en nodig hebben van de omgeving. - De structuur van levende wezens in onaf, staat open voor evolutie en historisch gevormd. Schrijf een essay over hoe jezelf en wat jouw blauwdruk is (wat vast staat) en wat onaf is en historisch gevormd.
- Leg uit waardoor het niet mogelijk is om een mensenleven, dat structureel de wereld produceert en tegelijkertijd ook zelf door de wereld wordt geproduceerd, te representeren zoals bij het computationalisme.
Denk hierbij aan het gegeven dat een mens produceert en geproduceerd wordt, voordat hij of zij überhaupt iets kan representeren. De mens presenteert niet, representeert ook niet en wordt ook niet gepresenteerd. Iedere (re)presentatie is het product van de wereld en produceert ook weer de wereld. Wil je begrijpen hoe het is om te leven, dan moet je leren vatten wat het is om te produceren en geproduceerd worden. - Hoe kun je een AI laten aanleren wat voor product het is, wat het produceert en hoe het wordt geproduceerd in het geheel van het systeem wat wij leven en universum noemen?
- Op pagina 149 wordt gesproken over een mentale representatie als een “passieve weerspiegeling van een vooraf bestaande omgeving”. Het producerende leven vindt continu plaats en is fundamenteel dynamisch en staat nooit stil. Leg uit waardoor een mentale representatie nooit het producerende leven kan presenteren omdat ze fundamenteel verschillen qua passiviteit en activiteit.
Verwerk in je antwoord de interactie tussen omgeving en het sensomotorisch lichaam dat zich al voelend (sensorisch) door de wereld beweegt (motorisch).
* Voor een essay:
De omgeving bepaalt het organisme en het organisme bepaalt de omgeving voelend en bewegend, voortdurend zonder enig moment van stilte of rust. Een voortdurende FLOW! Een representatie werkt als volgt: Input -> verwerking -> output -> feedback. En met deze feedback komt er input -> nieuwe verwerking met nieuwe input -> output. Maar na iedere output volgt de verwerking (en staat dus de tijd een fractie stil). De feedback-loop staat stil.
De filosofen van het enactivisme stellen dat het leven nooit stil staat. Het tastende en motorische doen en laten van de mens is fundamenteel anders. Terwijl je bezig bent, verandert alles voortdurend. AI kan dit door steeds sneller te representeren wellicht benaderen, maar daarmee blijft het altijd een benadering die letterlijk gaat over snel rekenen (input -> verwerking -> output) en een steeds kleinere fractie van feedback (stilte en terugkoppeling). Maar het hele rekenproces met feedback, hoe klein het stukje tijd dat het kost dan ook, blijft bewegingsloos.