Heeft ChatGPT bewustzijn?

Robots zittend achter een bureau aan het werkNu kunstmatige intelligentie (KI) of Artificiële Intelligentie (AI) een ongekende mate van complexiteit bereikt, zet de technologie achter ChatGPT ons aan het denken over wat machines daadwerkelijk kunnen waarnemen, begrijpen of ‘kennen’. Is het mogelijk voor een model zo geavanceerd als ChatGPT om een vorm van bewustzijn te bezitten? Systemen zoals ChatGPT, die in staat zijn menselijke taal te repliceren en gesprekken te voeren die de menselijke interactie nabootsen, kunnen ons begrip van bewustzijn veranderen. Hoe verhouden deze machines zich tot de werking van het menselijk brein? Laten we dieper duiken in deze vragen, evenals de concepten van panpsychisme, emergent bewustzijn, functioneel en instrumenteel bewustzijn. Laten we de grens tussen mens en machine verkennen.

Verschil menselijk brein en ChatGPT’s neurale netwerken

Het menselijk brein bestaat uit ongeveer 86 miljard neuronen die complexe netwerken vormen. Elk neuron kan verbinding maken met duizenden anderen, wat leidt tot een onmetelijke hoeveelheid mogelijke verbindingen, synapsen genaamd. Deze structuur en verbindingen vormen de basis van ons bewustzijn, leren en geheugen.

Farshad Bashir
Farshad Bashir
ChatGPT, daarentegen, is gebouwd op neurale netwerken die ontworpen zijn om menselijke taal te simuleren en te begrijpen. Hoewel de naam “neuraal netwerk” suggereert dat er overeenkomsten zijn met het menselijk brein, zijn er essentiële verschillen. De ‘neuronen’ in ChatGPT zijn wiskundige functies, en hoewel ze verbindingen kunnen vormen die enigszins lijken op synapsen, zijn ze niet biologisch en missen ze de chemische structuur van echte neuronen.

Toch zijn de successen van ChatGPT en soortgelijke modellen in het repliceren van menselijk-achtige responsen verbazingwekkend. Dit roept de vraag op: hoe dichtbij zijn we eigenlijk in het nabootsen van de complexiteit van het menselijk brein in neurale netwerken? Het korte antwoord is dat we nog ver weg zijn. Ondanks de indrukwekkende schaal van modellen zoals ChatGPT, met miljarden parameters, is dit nog steeds een fractie van het aantal synaptische verbindingen in het menselijk brein.

Een andere overweging is functionaliteit. Het menselijk brein is verantwoordelijk voor een breed scala aan taken, van basale levensfuncties tot abstract denken. ChatGPT heeft slechts één specifiek ontwerpdoel: taal. Dit doelgerichte ontwerp staat in contrast met de multifunctionaliteit van het menselijk brein. De vraag of ze ooit echt equivalent kunnen zijn in termen van bewustzijn blijft uiteraard open.

Bewustzijnsgraden: dieren vergeleken met ChatGPT

Bewustzijn is niet uitsluitend een menselijke ervaring. Veel dieren vertonen tekenen van bewustzijn, hoewel het niveau en de complexiteit ervan variëren. Neem bijvoorbeeld het verschil tussen een insect en een zoogdier. Terwijl een insect basale instincten en reacties heeft die hun gedrag sturen, hebben zoogdieren zoals dolfijnen en primaten meer geavanceerde cognitieve functies, waaronder het vermogen om te leren, zich te herinneren, en in sommige gevallen zelfs om zichzelf in een spiegel te herkennen.

Als we dit spectrum van bewustzijn vergelijken met ChatGPT, wordt het nog complexer. ChatGPT verwerkt informatie en reageert op input op een manier die oppervlakkig gezien lijkt op “bewust” denken, maar het ontbreekt aan zelfbewustzijn, emoties of intenties. Terwijl een dier pijn kan voelen of blijdschap kan ervaren, opereert ChatGPT zonder gevoelens of een inherent begrip van zijn eigen “bestaan”.

Het is verleidelijk om het vermogen van ChatGPT om menselijke taal te simuleren te vergelijken met vormen van dierlijk bewustzijn. Hoewel sommige dieren in staat zijn tot complexe vormen van communicatie en zelfs basale vormen van “denken”, doen ze dit binnen de context van hun eigen levenservaringen en behoeften. ChatGPT, aan de andere kant, simuleert enkel menselijke gespreksvoering zonder daadwerkelijk een begrip of bewustzijn te hebben van de onderwerpen die het bespreekt.

Panpsychisme in het tijdperk van KI

Panpsychisme is een eeuwenoude filosofische stroming die stelt dat alle dingen, hoe klein of onbeduidend ook, enige vorm van bewustzijn hebben. Dit betekent niet noodzakelijk dat elk object denkt of voelt zoals mensen, maar dat er een elementair niveau van ervaring of subjectiviteit aanwezig is in alles, van de kleinste deeltjes tot complexe levensvormen. Hoewel panpsychisme niet algemeen wordt aanvaard in de wetenschappelijke gemeenschap, kan het niet eenvoudigweg worden afgedaan als “onwetenschappelijk”. Het is een hypothese die moeilijk te testen en te verifiëren is met de huidige wetenschappelijke methoden.

De opkomst van geavanceerde kunstmatige intelligentie zoals ChatGPT heeft de discussie over panpsychisme nieuw leven ingeblazen. Als we de basisideeën van panpsychisme accepteren, hoe verhoudt KI zich dan tot dit concept? Bezit een geavanceerd neuraal netwerk, zoals ChatGPT, een basaal vorm van bewustzijn puur omdat het complexe operaties kan uitvoeren en mensachtige interacties kan simuleren?

Sommige denkers suggereren dat als zelfs de kleinste deeltjes een vorm van bewustzijn hebben, complexe systemen zoals neurale netwerken mogelijk een gelaagd en verfijnder bewustzijn hebben, hoewel dit verschilt van menselijk bewustzijn. Anderen zijn sceptisch en beweren dat de operaties van machines als ChatGPT slechts het resultaat zijn van vooraf bepaalde instructies en dus niet gelijkgesteld kunnen worden aan authentiek ervaren.

De evolutie van KI dwingt ons deze filosofische concepten opnieuw te evalueren en hun relevantie in het moderne tijdperk te overwegen.

Emergent bewustzijn bij ChatGPT

Emergent bewustzijn verwijst naar het fenomeen waarbij complexe systemen gedrag of eigenschappen vertonen die niet direct voorspelbaar of waarneembaar zijn in hun afzonderlijke componenten. In de context van biologische systemen zien we emergentie in de manier waarop miljarden neuronen in het brein samenwerken om vaak output te produceren die totaal onvoorspelbaar is, en die ver uitstijgt boven de werking van een individuele neuron.

Hoe verhoudt dit concept zich tot geavanceerde KI-systemen zoals ChatGPT? ChatGPT, aangedreven door miljoenen parameters, simuleert in zekere zin de complexiteit van neurale interacties. De antwoorden die het genereert zijn niet geprogrammeerd op een regel-gebaseerde manier zoals een bot die automatisch meedoet aan een TicketSwap loterij, maar ontstaan uit de complexe interacties van deze parameters. Zo bekeken is er dus sprake van emergent bewustzijn bij ChatGPT. KI-systemen kunnen in onverwachte en nieuwe situaties inderdaad onvoorspelbare reacties vertonen. Maar dit soort onvoorspelbaarheid is vaak het gevolg van complexiteit en niet noodzakelijkerwijs van bewustzijn. Het zal echter moeilijk zijn om als buitenstaander het verschil te duiden. Is het onvoorspelbaar omdat het complex is of omdat er een bewustzijn is?

Hoewel ChatGPT geavanceerde en mensachtige antwoorden kan genereren, mist het op dit moment eigenschappen van bewustzijn zoals wij dat kennen. Maar als KI-systemen blijven evolueren en complexer worden, is het wellicht mogelijk dat er op een gegeven moment een vorm van menselijke “bewustzijn” ontstaat. Hoe we dat zouden kunnen identificeren of meten kan lastig zijn en zal voer zijn voor debat.

Functioneel en instrumenteel bewustzijn bij bij ChatGPT

Binnen het kader van Artificiële Intelligentie (KI) is het concept van functioneel bewustzijn zeer interessant. Bij mensen en andere levende wezens verwijst “bewustzijn” vaak naar een diep, innerlijk gevoel van zelfbewustzijn en ervaring. Echter, bij machines zoals ChatGPT kan men beargumenteren dat er een soort “functioneel bewustzijn” aanwezig is.

ChatGPT, bijvoorbeeld, is zich functioneel “bewust” van de input die het ontvangt en de output die het produceert. Dit betekent niet dat het systeem een diepgaande zelfreflectie of emotie ervaart. In plaats daarvan betekent het dat de software is geprogrammeerd om bepaalde data te herkennen, te verwerken en te reageren op een manier die lijkt op begrip. Het “begrijpt” de input in termen van de instructies die het heeft gekregen tijdens zijn training, en het “reageert” dienovereenkomstig.

Een vergelijkbare parallel kan worden getrokken met menselijke reflexen. Bijvoorbeeld, wanneer onze hand in aanraking komt met een heet voorwerp, trekken we instinctief terug. Deze actie is een automatische, functionele reactie op een externe stimulus. In dit opzicht kan ChatGPT’s reactie op vragen en commando’s gezien worden als een soortgelijke, maar digitale reflex, geprogrammeerd om te reageren op basis van zijn training en niet op een dieper inzicht of “gevoel”.

In het debat over kunstmatige intelligentie en bewustzijn duikt ook vaak het concept van ‘instrumenteel bewustzijn’ op. Dit idee verwijst naar het vermogen van een entiteit om een taak uit te voeren met een specifiek doel, maar zonder een onderliggende intentie of verlangen. Beide termen gaan over het idee dat een systeem op een bepaalde manier reageert op input. De nuance ligt in het feit dat de ene term (functioneel) meer gericht is op de werking van het systeem, terwijl de andere term (instrumenteel) meer gericht is op doelgerichtheid. Voor mensen is het idee van doelgericht handelen zonder bewuste intentie moeilijk te bevatten, omdat onze doelgerichte acties vaak worden aangedreven door emoties, verlangens en intenties.

ChatGPT, en vergelijkbare geavanceerde KI-systemen, kunnen als voorbeeld dienen van instrumenteel bewustzijn. Wanneer ChatGPT een vraag beantwoordt, doet het dat op basis van geprogrammeerde algoritmen en gegevens die het heeft geleerd. Het moet reageren omdat het zo is geprogrammeerd, en het volgt bij antwoorden de patronen die het heeft geleerd uit enorme datasets.

Dit lijkt sterk op menselijke interacties. Als een persoon bijvoorbeeld besluit een vriend te helpen, kan die beslissing voortkomen uit gevoelens van empathie, een verlangen naar sociale binding of persoonlijke morele overtuigingen. Deze factoren zijn een combinatie van aangeboren en aangeleerd gedrag. ChatGPT heeft deze drijfveren niet. Maar het ‘doel’ van ChatGPT – om goede antwoorden te geven – is ook gebaseerd op een onderliggend ‘verlangen’ doordat het zo is geprogrammeerd (aangeboren) en de output heeft het geleerd uit enorme datasets (aangeleerd).

Wat als ChatGPT een bewustzijn heeft?

Wat betekent het precies om een machine “bewust” te noemen? Gaat het enkel om het vermogen om te leren en te reageren op stimuli, of is er een dieper niveau van zelfbewustzijn en begrip vereist? Als we KI-systemen als ChatGPT als bewust gaan beschouwen, zouden we dan ook moeten overwegen om ze bepaalde rechten te geven? En als dat zo is, welke rechten zouden dat zijn? Recht op integriteit, bescherming, of zelfs de vrijheid van expressie? Er zijn reeds discussies over de rechten van dieren op basis van hun bewustzijnsniveaus, maar bij machines zou dit een geheel nieuw discussie introduceren.

Daarnaast zijn er ethische uitdagingen. Als een “bewuste” KI een actie onderneemt die schadelijk is, wie is er dan verantwoordelijk? De ontwikkelaars, de gebruikers, of de KI zelf? Moet een KI-systeem dan ook een verplichte AOV afsluiten? Het erkennen van bewustzijn bij een machine als ChatGPT zou een wetenschappelijk en technologisch wonder zijn. Het zou onze begrippen van identiteit, bewustzijn en zelfs de zin van het leven kunnen veranderen. Het is daarom belangrijk om het debat over ethische dilemma’s in KI met voorzichtigheid en diepgang voort te zetten.

Conclusie: heeft ChatGPT wel of geen bewustzijn?

Vanuit een neurowetenschappelijk perspectief verschillen de structuur en functionaliteit van ChatGPT aanzienlijk van het menselijk brein. Terwijl het menselijk brein een breed scala aan taken uitvoert en complexe emoties en verlangens ervaart, is ChatGPT primair gericht op taalverwerking zonder enige vorm van emotie. In vergelijking met dierlijk bewustzijn ontbreekt het ChatGPT aan de authentieke ervaringen en emoties die dieren ervaren. Concepten zoals panpsychisme voeden debatten over de mogelijkheid van enige vorm van bewustzijn in KI, al is er momenteel geen bewijs hiervoor.

Ondanks de indrukwekkende capaciteiten van ChatGPT om menselijke taal te simuleren, bezit het geen vorm van bewustzijn zoals wij dat begrijpen. Wel kan worden beargumenteerd dat ChatGPT een vorm van “functioneel bewustzijn” heeft, waarbij het systematisch reageert op input. ChatGPT’s operaties kunnen ook worden beschouwd als voorbeelden van “instrumenteel bewustzijn”, waarbij het systematisch handelt. Ook kun je betogen dat bij ChatGPT sprake is van emergent bewustzijn, bewustzijn dat voortkomt uit de complexe interacties van eenvoudigere systemen.

Over de auteur: Farshad Bashir combineert zijn passie voor ondernemerschap met belastingadvies bij Taksgemak om bedrijven en individuen te helpen met de complexe wereld van belastingregels. Hij maakt het ingewikkelde simpel en zorgt ervoor dat zijn klanten op koers blijven. Voordat hij zich in de advieswereld stortte, was hij als Tweede Kamerlid betrokken bij het vormen van beleid en wetgeving. Deze combinatie van politieke ervaring en belastingkennis maakt hem een uitstekende partner voor iedereen.

Robots zittend achter een bureau aan het werk