Waartoe zal ChatGPT uiteindelijk in staat zijn en wat kan het nu al? Is wat het doet te begrijpen als denken? Moeten we zeggen dat ChatGPT komt tot begrip en oordeelsvorming? Dit zijn vragen die velen terecht stellen. In de negentiende eeuw heeft Darwin ons laten zien dat het ontstaan van complexe organismen kan worden verklaard vanuit slechts enkele zeer eenvoudige evolutionaire selectieregels. ChatGPT laat ons twee eeuwen later zien dat het voortbrengen van allerlei complexe betekenissen kan worden verklaard vanuit slechts enkele zeer eenvoudige statistische zoekregels. Is ChatGPT daarom de Darwin van betekenis?
Darwins evolutionaire verklaring is in elk geval niet op het voortbrengen van betekenissen van toepassing. Laten zien hoe organismen kunnen ontstaan uit een paar simpele algoritmische regels is namelijk iets anders dan laten zien hoe betekenisvolle gesprekken kunnen ontstaan uit een paar simpele algoritmische regels. Maar hoewel ChatGPT met zijn zoekregels in tegenstelling tot Darwins selectieregels wél betekenissen kan genereren, zal ik betogen dat uiteindelijk ook ChatGPT er niet in slaagt om daadwerkelijk tot begrip en betekenis te komen.
Hoe werkt ChatGPT? ChatGPT traint zichzelf uitsluitend op wat wij gedacht, gezegd en geschreven hebben. Het is daarom slechts een spiegel voor de mens. We praten voortdurend met onszelf en ons verleden. ChatGPT zoekt alléén patronen in wat mensen voortgebracht hebben en geeft er allerlei combinaties van terug. Het maakt dan ook nooit een werkelijk originele creatieve sprong. Het opent niets. Het denkt niet. De menselijke geest kan verbanden leggen tussen ogenschijnlijk volstrekt ongerelateerde gegevens om zo uit het al bekende te springen en nieuwe ideeën te creëren die voorheen niet bestonden. ChatGPT kan dit niet. Het kan louter samenstellingen maken van wat wij al gedacht hebben. En dat is geen denken.
We kunnen dit ook nog op een andere manier inzien. ChatGPT heeft geen besef van waar en onwaar. Het berekent en retourneert slechts statistisch waarschijnlijke uitbreidingen van gegeven karakterreeksen. Omdat een notie van waar en onwaar een noodzakelijke voorwaarde is voor werkelijk begrip, heeft ChatGPT geen werkelijk begrip. Het is uiteindelijk dan ook betekenisloos. Het gaat hierbij niet alleen om het beoordelen of iets waar of onwaar is. Het gaat erom een notie te hebben van wat waar en onwaar überhaupt betekenen. ChatGPT heeft dit besef niet en dáárom denkt het niet. Het is niet in staat tot werkelijke oordeelsvorming.
Elk softwareprogramma dat betekenisvolle conversaties nabootst door slechts gemeenschappelijke patronen in grote menselijke datasets te ontsluiten, zonder daadwerkelijk te begrijpen wat de concepten in de dataset betekenen, moet niet als begrijpend of denkend worden beschouwd. Dat het in feite een breed scala aan puzzels kan oplossen doet hier niets aan af. Zelfs als het op een dag bijvoorbeeld een bekend open wiskundig probleem zou oplossen, zou ik hetzelfde zeggen als toen de wereldkampioen schaken voor het eerst werd verslagen door een computerprogramma. Het zou algorithmisch buitengewoon vernuftig zijn, maar het zou geen denken zijn. Voor echt denken, voor werkelijk conceptueel begrip is innerlijke vrije subjectiviteit of bewustzijn nodig, dat van nature radicaal verschilt van elk gesloten formeel regelsysteem. Alleen een vrije bewuste geest is wezenlijk open en in staat om elk gesloten formalisme te overstijgen. En dat is wat eigenlijk denken is. Eigenlijk denken valt met geen enkel gesloten formalisme samen.
Natuurlijk maakt ChatGPT enorm veel indruk. Op het eerste gezicht lijkt het erop dat ChatGPT in staat is om begrip en betekenis restloos te reduceren tot taalstructuur of syntax. Daarmee zou het een kloof overbrugd hebben die onoverbrugbaar leek. Maar omdat wat ChatGPT doet geen werkelijk denken is, is van een restloze reductie van begrip en betekenis naar syntax geen sprake. De sfeer van begrip en betekenis omvat immers het denken. De grote indruk die ChatGPT aanvankelijk maakt, wordt getemperd zodra we begrijpen op basis van welke principes het werkt. Het voorspelt statistisch hoe een gegeven reeks van symbolen verlengd zou moeten worden door reusachtig grote verzamelingen van bestaande teksten te doorzoeken naar gelijksoortige reeksen. Het ziet dus geen verbanden die datgene overstijgen waartoe de gegevensverzamelingen statistisch aanleiding geven. Onvoorziene verbanden buiten de beschikbare gegevens ontgaan ChatGPT. Zo wordt duidelijk dat het in tegenstelling tot de mens niet in staat is tot incommensurabele paradigmawisselingen. Want het geeft slechts patronen en recombinaties van het al bestaande terug.
En precies omdat ChatGPT niet denkt, zal het buiten wat wij zelf denken dus nooit een opening maken naar iets werkelijk nieuws. Het schept geen nieuwe concepten buiten alle reeds bestaande concepten. Het breidt onze conceptuele ontologie niet uit. Zo blijft het eindeloos achter ons denken aanlopen met gedetailleerde patroonherkenningen en snelle recombinaties van het door ons reeds gedachte.
Uiteraard is veel van wat mensen origineel en creatief noemen niet werkelijk creatief en origineel in bovenbedoelde zin. Het cartesianisme is binnen het aristotelische wereldbeeld een voorbeeld van een werkelijk originele creatieve sprong. En hetzelfde geldt voor de natuurkunde van Einstein ten opzichte van die van Newton. Hier worden totaal nieuwe conceptuele ruimten geopend. Tot dit soort sprongen naar nieuwe ideeënwerelden is ChatGPT niet in staat. De sprong van Einstein is en blijft dan ook een volstrekt oorspronkelijke sprong van de menselijke geest die op geen enkele wijze gemaakt had kunnen worden door patroonherkenning in teksten van Newton, Kant en andere voorlopers. Het gaat om een geheel nieuw paradigma. Een nieuwe conceptuele wereld. En dat lukt niet met alleen maar patroonherkenning in het bestaande. ChatGPT zou in een klassiek aristotelische wereld op basis van aristotelische begrippen slechts eindeloos variaties op aristotelische teksten herhalen en dus nooit een cartesiaans denken ontsluiten en laten verschijnen.
Kortom, ChatGPT kan op grond van bestaande gegevens binnen één domein of tussen verschillende domeinen nieuwe verbanden vinden tussen reeds bestaande concepten. Maar het kan geen nieuwe concepten of nieuwe domeinen voortbrengen. ChatGPT kan onze ontologie dus nooit uitbreiden. Het is fundamenteel gesloten. ChatGPT imiteert en schept niet. Het kan slechts met door ons al vaakgebruikte stijlen door ons al veelbesproken onderwerpen hercombineren. Hoewel de mens uiteraard vaak dezelfde techniek toepast, doen mensen dat niet altijd. Want in tegenstelling tot ChatGPT is de menselijke geest open. Het transcendeert alle gesloten formalismen.
Door zeer intensief met ChatGPT aan de slag te gaan en ervan in de ban te raken, loopt de mensheid echter het risico zich uitsluitend te gaan richten op wat ze reeds gedacht heeft. Er zullen minder originele creatieve sprongen naar het onbekende zijn. Worden er straks nog wel geheel nieuwe conceptuele ruimten geopend? Dit is een existentiële vraag. Door de eeuwen heen is de wereld steeds op een andere wijze aan de mens verschenen. De manier waarop de dingen in de klassieke oudheid in de openbaarheid traden verschilt wezenlijk van de wijze waarop de dingen in de middeleeuwen in het licht traden of van de manier waarop de dingen in de moderne tijd verschenen en zo blijk gaven van hun aanwezigheid. Zal door een dominantie van GPT technologieën de wereld mogelijk nooit meer op een andere wijze aan de mens verschijnen? Zullen de dingen nooit meer op een andere manier voor ons ontsloten worden en tevoorschijn treden? Deze vraag raakt aan het wezen van de mens. Het risico dat wij onze geestelijke openheid naar de wereld en de toekomst verliezen en onze bestaanservaring vervalt tot monotone voorspelbare afgeslotenheid is niet denkbeeldig. Als dit gebeurt, verliest de menselijke existentie enorm aan zin en betekenis.
ChatGPT betreft vanuit Heideggers ontologische denken over de saamhorigheid van mens, taal en wereld dan ook een ontoelaatbare ontische reductie. Zo is het grote taalmodel van ChatGPT gebaseerd op de these dat het verwerken van taaluitingen een veelbelovende weg is om gedachten voort te brengen. En precies deze veronderstelling is een ontische reductie van Heideggers ontologische these dat denken en taal ten diepste existentieel op elkaar betrokken zijn. Of preciezer gezegd: de kernveronderstelling van het grote taalmodel van ChatGPT is een ontische reductie van Heideggers ontologische these dat echt of authentiek denken neerkomt op het luisteren naar de stem van de taal of naar wat de taal te zeggen heeft en zo aan ons onthult. Daarnaast is het feit dat ChatGPT's grote taalmodel primair geïnteresseerd is in eerdere datasets een ontische reductie van Heideggers ontologische these dat ons verleden diep verweven is met ons begrip en ons verstaan als historische wezens, zodat echt denken geworteld is in herinnering en dus in wat de overlevering of traditie ons toont en onthult.
Beide ontische reducties van het ontologische denken zouden ons moeten waarschuwen. De menselijke geest is niet gesloten. De menselijke geest staat open voor geheel nieuwe en nog onvoorziene mogelijkheden. De menselijke geest let niet alleen op eerdere patronen om vervolgens slechts vergelijkbare patronen te creëren. Een meedogenloze adoptie van ChatGPT met zijn ontische grote taalmodel kan dan ook leiden tot een afsluiting van de menselijke geest en daarmee tot het verdwijnen van de menselijke existentie.
maandag 10 april 2023
ChatGPT en de mens
Labels:
betekenis,
ChatGPT,
denken,
menselijke existentie,
patroonherkenning,
zin
Abonneren op:
Reacties posten (Atom)
Geen opmerkingen:
Een reactie posten