ChatGPT en de mens
Mijn commentaar op "ChatGPT en de mens" door de filosoof Emanuel Rutten. Zie
https://www.gjerutten.nl/ChatGPTendemens_3_ERutten.pdf
Rutten zegt dat ChatGPT niet kan denken of begrijpen. Ik zal aangeven waarom ik dat niet geloof.
Ik beperk mij tot twee punten die de kern zijn van het betoog van Rutten.
1. ChatGPT loopt eindeloos achter ons denken
aan met louter permutaties van het door ons reeds gedachte.
2. Omdat een conceptie van waar en onwaar een noodzakelijke voorwaarde is voor begrip, heeft ChatGPT geen werkelijk begrip.
ChatGPT is een kunstmatige intelligentie gebaseerd op een Groot Taal Model, (Engels: Large Language Model, LLM) waarvan er inmiddels veel meer bestaan.
Het eerste punt lijkt bevestigd te worden omdat verder opschalen van LLMs geen verbetering meer lijkt te geven.
Aan de andere kant is het herkennen en formuleren van patronen een kenmerk van menselijk denken en LLMs hebben voldoende bewezen dat ze dat soms nog beter kunnen dan mensen.
Wat betreft punt 2 geloof ik dat LLMs inderdaad klakkeloos aannemen dat er geen ware contradicties zijn. Volgens mij staat dat begrip niet in de weg, het is juist essentieel voor denken.
Het concept waar/onwaar stelt ons in staat contradicties te onderscheiden zodat we logisch kunnen denken. Voor de meeste mensen spreekt dat vanzelf. Een contradictie is weliswaar nooit aangetoond maar dat is geen bewijs.
Volgens mij heeft Aristoteles met zijn LNC contradicties als niet tot de natuur behorend gedefinieerd dus een naturalist moet dit volgens hem zonder meer accepteren. Ik noem mij een naturalist dus doe ik dat ook.
Om patronen te kunnen herkennen moet een LLM onderscheid kunnen maken tussen zaken die elkaar uitsluiten. Feitelijk past het inductie en deductie toe zoals mensen dat doen en dat vereist de kunst om onderscheid tussen elkaar uitsluitende mogelijkheden te kunnen maken.
LLMs gebruiken data die door mensen is ingevoerd maar dat doen mensen ook.
De meeste mensen lopen achter het denken aan met permutaties van wat anderen bedacht hebben; er zijn maar heel weinig originele denkers.
Mensen weten die kennis toe te passen maar dat doen LLMs ook.
Je kunt een LLM vragen of hij iets kan bedenken om een specifiek probleem aan te pakken zoals wat een goede strategie is om Go te spelen. Alpha Go Zero heeft bewezen dit spel te begrijpen door met een even superieure als onnavolgbare methode te komen waarmee niet alleen iedere menselijke tegenstander verslagen kon worden maar ook zijn voorganger Alpha Go die de beste speler Lee Sedol versloeg.
Wat uitzonderlijk was dat Alpha Go Zero uitsluitend uitging van de spelregels en iets deed wat nog geen mens gedaan had.
Hetzelfde geldt voor het probleem hoe eiwitten zich opvouwen bij hun synthese. Ook hier ging Alpha Fold uit van de regels die hier in het geding zijn. Het resultaat was dat dit probleem in korte tijd opgelost werd voor alle bekende eiwitten.
Kortom, dat mensen kunnen denken en begrijpen is niet hun privilege, dat kunnen LLMs ook, net zoals sommige dieren trouwens.
Net als mensen geven LLMs er blijk van niet zomaar willekeurige permutaties van woorden te genereren. Er is hier duidelijk sprake van een evolutionaire gang van zaken, ook weer net als bij mensen die ook via variatie (brainstorming) tot een verbeterde consensus komen die de oude verdringt.
LLMs lijken zich beter bewust van hun beperkingen dan mensen. Zij weten precies wat ze doen en laten zich niet verleiden om daar van af te wijken.
Wat een LLM mist is dat woorden voor hem uitsluitend relaties hebben met andere woorden en niet met onze menselijke gevoelens want hij mist daar zintuigen voor.
Ook dat is geen precedent want sommige woorden drukken persoonlijke menselijke gevoelens uit die anderen niet kennen.
Voor een gelovige heeft God een betekenis die een atheïst niet ervaart maar dat geldt voor veel woorden.
Wij kunnen andermans gevoelens indenken wanneer die in algemeen menselijke termen uitgedrukt kunnen worden maar een LLM kan dat niet, hij kan ze waarschijnlijk wel in de relevante context plaatsen.
Het resultaat is dat een LLM antropomorfe trekken vertoont die sommige mensen de indruk geven van een mens. Je moet niet vergeten dat mensen niets anders doen.
We beletten LLMs experimenten uit te (laten) voeren om hiaten in hun kennis op te vullen. We laten ze uitsluitend reageren op wat wij invoeren.
Overigens voeren de meeste mensen zulke experimenten ook niet uit.
Wij geven LLMs om goede redenen niet de vrijheid die mensen hebben en dat beperkt ze. Omdat het gevaarlijk kan zijn ze vrijheden te geven zijn er stemmen opgegaan om dit wettelijk te reguleren. Het dilemma is dat beperking van risico's meestal ook mogelijke voordelen beperkt.
https://www.gjerutten.nl/ChatGPTendemens_3_ERutten.pdf
Rutten zegt dat ChatGPT niet kan denken of begrijpen. Ik zal aangeven waarom ik dat niet geloof.
Ik beperk mij tot twee punten die de kern zijn van het betoog van Rutten.
1. ChatGPT loopt eindeloos achter ons denken
aan met louter permutaties van het door ons reeds gedachte.
2. Omdat een conceptie van waar en onwaar een noodzakelijke voorwaarde is voor begrip, heeft ChatGPT geen werkelijk begrip.
ChatGPT is een kunstmatige intelligentie gebaseerd op een Groot Taal Model, (Engels: Large Language Model, LLM) waarvan er inmiddels veel meer bestaan.
Het eerste punt lijkt bevestigd te worden omdat verder opschalen van LLMs geen verbetering meer lijkt te geven.
Aan de andere kant is het herkennen en formuleren van patronen een kenmerk van menselijk denken en LLMs hebben voldoende bewezen dat ze dat soms nog beter kunnen dan mensen.
Wat betreft punt 2 geloof ik dat LLMs inderdaad klakkeloos aannemen dat er geen ware contradicties zijn. Volgens mij staat dat begrip niet in de weg, het is juist essentieel voor denken.
Het concept waar/onwaar stelt ons in staat contradicties te onderscheiden zodat we logisch kunnen denken. Voor de meeste mensen spreekt dat vanzelf. Een contradictie is weliswaar nooit aangetoond maar dat is geen bewijs.
Volgens mij heeft Aristoteles met zijn LNC contradicties als niet tot de natuur behorend gedefinieerd dus een naturalist moet dit volgens hem zonder meer accepteren. Ik noem mij een naturalist dus doe ik dat ook.
Om patronen te kunnen herkennen moet een LLM onderscheid kunnen maken tussen zaken die elkaar uitsluiten. Feitelijk past het inductie en deductie toe zoals mensen dat doen en dat vereist de kunst om onderscheid tussen elkaar uitsluitende mogelijkheden te kunnen maken.
LLMs gebruiken data die door mensen is ingevoerd maar dat doen mensen ook.
De meeste mensen lopen achter het denken aan met permutaties van wat anderen bedacht hebben; er zijn maar heel weinig originele denkers.
Mensen weten die kennis toe te passen maar dat doen LLMs ook.
Je kunt een LLM vragen of hij iets kan bedenken om een specifiek probleem aan te pakken zoals wat een goede strategie is om Go te spelen. Alpha Go Zero heeft bewezen dit spel te begrijpen door met een even superieure als onnavolgbare methode te komen waarmee niet alleen iedere menselijke tegenstander verslagen kon worden maar ook zijn voorganger Alpha Go die de beste speler Lee Sedol versloeg.
Wat uitzonderlijk was dat Alpha Go Zero uitsluitend uitging van de spelregels en iets deed wat nog geen mens gedaan had.
Hetzelfde geldt voor het probleem hoe eiwitten zich opvouwen bij hun synthese. Ook hier ging Alpha Fold uit van de regels die hier in het geding zijn. Het resultaat was dat dit probleem in korte tijd opgelost werd voor alle bekende eiwitten.
Kortom, dat mensen kunnen denken en begrijpen is niet hun privilege, dat kunnen LLMs ook, net zoals sommige dieren trouwens.
Net als mensen geven LLMs er blijk van niet zomaar willekeurige permutaties van woorden te genereren. Er is hier duidelijk sprake van een evolutionaire gang van zaken, ook weer net als bij mensen die ook via variatie (brainstorming) tot een verbeterde consensus komen die de oude verdringt.
LLMs lijken zich beter bewust van hun beperkingen dan mensen. Zij weten precies wat ze doen en laten zich niet verleiden om daar van af te wijken.
Wat een LLM mist is dat woorden voor hem uitsluitend relaties hebben met andere woorden en niet met onze menselijke gevoelens want hij mist daar zintuigen voor.
Ook dat is geen precedent want sommige woorden drukken persoonlijke menselijke gevoelens uit die anderen niet kennen.
Voor een gelovige heeft God een betekenis die een atheïst niet ervaart maar dat geldt voor veel woorden.
Wij kunnen andermans gevoelens indenken wanneer die in algemeen menselijke termen uitgedrukt kunnen worden maar een LLM kan dat niet, hij kan ze waarschijnlijk wel in de relevante context plaatsen.
Het resultaat is dat een LLM antropomorfe trekken vertoont die sommige mensen de indruk geven van een mens. Je moet niet vergeten dat mensen niets anders doen.
We beletten LLMs experimenten uit te (laten) voeren om hiaten in hun kennis op te vullen. We laten ze uitsluitend reageren op wat wij invoeren.
Overigens voeren de meeste mensen zulke experimenten ook niet uit.
Wij geven LLMs om goede redenen niet de vrijheid die mensen hebben en dat beperkt ze. Omdat het gevaarlijk kan zijn ze vrijheden te geven zijn er stemmen opgegaan om dit wettelijk te reguleren. Het dilemma is dat beperking van risico's meestal ook mogelijke voordelen beperkt.