>>>  Laatst gewijzigd: 9 maart 2020  
Ik

Woorden en Beelden

Filosofie en de waan van de dag

Start Glossen Weblog Boeken Denkwerk

Filosofie van de Artificiële Intelligentie

Voorkant Dreyfus 'What computers (still) can't do - A critique of artificial intelligence' Hubert L. DREYFUS
What computers (still) can't do - A critique of artificial intelligence
Cambridge, Mass.: The MIT Press, 1992 3e editie; 1e editie 1972 en 2e editie 1979; 354 blz.

(ix) Introduction to the MIT press edition

AI-onderzoek wordt hier neergezet als een 'degenerating research program'. Naar D's idee is er na 50 jaar sprake van een mislukking waar het gaat om onderzoek rondom het idee dat een computer intelligent gedrag of algemene intelligentie (hij gebruikt beide termen) zou kunnen vertonen.

Het probleem zit naar zijn idee in de rationalistische idee van atomistische symbolen die via formele regels gemanipuleerd kunnen worden (het 'symbolic information processing model of the mind').

Daartegenover benadrukte D. altijd al dat relevantie holistisch ervaren wordt in een combinatie van lichamelijke activiteit, motivatie, interesse etc. Analyse van bepaalde vaardigheden als schaken maakt duidelijk dat we waarschijnlijk op hoger niveau helemaal geen gebruik meer maken van de regels die we in het begin aanleerden. Het connectionisme (neurale netwerken) zit daar dichterbij.

Blijkbaar heeft D. alleen bezwaar tegen GOFAI (Good Old-Fashioned AI) zoals daarnet beschreven? Lenat's CIC-project met zijn reusachtige database van alledaagse kennis ziet hij in ieder geval niet als een oplossing, bijvoorbeeld omdat hij vindt dat begrippen als 'daar' / 'hier' 'daarheen' / 'hierheen', 'voor' / 'achter' etc. gebonden zijn aan lichamelijke ervaringen die je de computer onmogelijk kunt meegeven.

Of omdat de verbeelding een noodzakelijk cognitief gegeven is. Of omdat te weinig rekening gehouden wordt met de noodzaak in een concrete situatie de relevante informatie te gebruiken. Of omdat een systeem uiteindelijk in staat moet zijn om zelf bij te leren (wat ook Lenat toegeeft) terwijl niet duidelijk is hoe een computer dat zou kunnen doen. Of omdat een computer waarschijnlijk nooit metaforen als "Sally is een blok ijs" zal kunnen hanteren (John Searle vindt dat trouwens ook).

Wat dan met de nieuwe vormen van AI? De interactionistische heideggeriaanse AI van Winograd, Agre en Chapman bijvoorbeeld kan leren en het inschatten van relevantie ook geen plaats geven. Voor de neurale netwerken staat met name het probleem van het generaliseren (is in feite ook leren) in de weg. Ook de 'derde weg' ('reinforcement learning' met neurale netwerken) levert waarschijnlijk problemen op.

(1) Introduction to the revised edition (1979)

Veelal herhaling van de inmiddels bekende discussie. Het begint met een bespreking van Fase 3 (1967-72 Micro Worlds) producten en pretenties als SHRDLU (Winograd) en DENDRAL.

Veel draait hierbij om begrippen als 'understanding'. Want kun je ooit zeggen dat een computer iets begrijpt of weet? Dat hangt sterk af van een duidelijk beeld van de betekenis van 'begrijpen', 'weten', en 'kennen' bij mensen. Mag en kun je wel ooit een reductie van betekenis gebruiken die een machine iets laat doen wat er op lijkt zonder de essentie van 'begrijpen' aan de kant te gooien? Dreyfus denkt van niet en ik ben het met hem eens.

De passages op p.13-14 stellen dat er geen microwerelden zijn die je atomistisch kunt bouwen en dan later kunt combineren met andere microwerelden totdat ooit de wereld van onze alledaagse kennis ontstaat. In begrijpen en kennen is steeds de hele wereld voorondersteld, zelfs als het om een specialistisch begrijpen gaat.

In een microwereld is die hele wereld niet aanwezig en dat is een fundamentele beperking ervan die maakt dat die benadering wel móet mislukken. Elke prestatie in een microwereld blijkt niet generaliseerbaar en zegt daarmee niets over intelligentie in het algemeen. Denk wat betreft waarneming aan de Gestalt-theorie.

Opvallend vaak koppelt D. 'formal' aan 'context free'. Die laatste term duikt steeds weer op. Inderdaad wordt daarmee de kern van het probleem goed aangeduid. Bij menselijk begrijpen is de context altijd aanwezig. Het is ook inderdaad merkwaardig om te zien dat AI-aanhangers blijven zeggen dat er in de toekomst ooit een doorbraak zal komen en zo meer, terwijl steeds alles mislukt of een te beperkt resultaat oplevert. Je moet je 'grants' toch binnenhalen.

Vervolgens komt fase 4 (1972-77 Knowledge Representation) met het ontstaan van 'knowledge engineering' en 'cognitive science' ter sprake. Expertsystemen dus. MYCIN wordt besproken en een schaakprogramma als CHESS 4.5. Husserl wordt gebruikt om te laten zien dat intelligentie niet het ontvangen van contextvrije feiten is, maar een doelgericht, contextbepaald zoeken naar feiten op basis van verwachtingen en zo.

Intelligent gedrag vooronderstelt een achtergrond van culturele praktijken en instituties. Minsky's 'frame' - theorie lijkt iets in die richting te doen, maar niet heus. Analyse van het begrip 'stoel' (p.38) laat dat prachtig zien. Schank's idee van 'scripts' wordt terecht helemaal tot de grond toe afgebroken. Winograd's KRL (Knowledge Representation Language) haalt het ook niet.

Het gaat om de principiële kwesties. Ik denk zelf ook inderdaad dat een 'holistische module' in een computer voor het verwerken van informatie door die computer een contradictio in terminis is.

Op p.62-63 de conclusies. Weizenbaum wordt nog genoemd, en bekritiseerd op het punt van het handhaven van de dichotomie intelligentie - wijsheid en zo (64-65).

(67) Introduction first edition (1972)

Rondom de formalisering van kennis: het idee dat je elke vorm van kennis kunt uitsplitsen in atomaire onderdelen die je met een formele taal kunt aanduiden en die je via formele regels kunt manipuleren en combineren waardoor eventueel weer nieuwe kennis ontstaat.

Hobbes, Leibniz, Boole, Babbage, Turing, Aiken, Shannon (uitvinder van de informatietheorie), Simon & Newell (Logic Theory Machine met heuristieken voor het oplossen van problemen).

De beginpretentie van Simon & Newell is: 1/ Computerheuristieken gebruiken om menselijke oplossingsmethoden te leren begrijpen; 2/ oplossingsmethoden van mensen simuleren via de computer (ook wel: intelligent gedrag simuleren). Dat is het programma van AI in het begin. Maar kan dat wel? Waar liggen de beperkingen? Wat betekent een en ander voor mensen? Conclusie p.79.

In het begin veel claims van AI-mensen die ook in de pers een enorm optimistisch beeld van de mogelijkheden achterlieten. D. wil al die pretenties en voorspellingen kritisch onderzoeken.

Wat hem denk ik terecht irriteert is het gegeven dat al die kereltjes bluffen bij het leven en enorme voorspellingen doen die ze vervolgens niet waar kunnen maken. Maar later zullen ze nooit zeggen dat iets mislukt is, dat ze zich vergist hebben en dat soort dingen. Daardoor lijken ze ook niet van hun fouten te leren, sterker nog: omdat alle fouten en mislukkingen verzwegen worden kan niemand van die fouten en mislukkingen leren en vinden mensen regelmatig weer opnieuw hetzelfde vierkante wiel uit.

(89) Deel 1 - Ten years of research in AI (1957-1967).

(91) Phase 1 (1957 - 1962): Cognitive simulation

Machinaal vertalen liep vast omdat de computer de syntaxis en de semantiek van de natuurlijke taal niet kon vatten (wat natuurlijk samenhangt met de samenhang tussen betekenis en context). Cognitieve simulatie / 'problem solving' / 'game playing': al bekend. Patroonherkenning: ook mislukt.

Conclusie (p.99): De betekenis van die mislukking moet geanalyseerd worden, gek genoeg hebben al die AI-mensen niet geprobeerd van hun fouten te leren. Duidelijk moet worden waarom menselijke informatieverwerking niet de problemen kent die machinale informatieverwerking blijkbaar heeft:

1/ Mensen schaken anders dan schaakprogramma's / -computers. De rol van 'marginal awareness' tegenover 'explicit awareness' (het doorrekenen van alle mogelijke zetten), van Gestalt-waarneming, van het feit dat mensen van de geschiedenis gebruik kunnen maken heeft te weinig aandacht gekregen.

Dit deel is een beetje achterhaald omdat de schaakcomputers van toen een pure 'brute force'- benadering hadden en dat ligt nu toch wel anders. Maar inderdaad gaat het bij topschakers anders dan bij machines: patroonherkenning, globale inschattingen, moeilijk te achterhalen maar duidelijk aanwezige ervaring met vroegere schaakpartijen, het speelt allemaal een rol in de creativiteit van de grootmeester. Men name dat aspect geschiedenis is boeiend: een computer heeft geen besef van het proces waarlangs hij tot een resultaat is gekomen, heeft geen geschiedenis die het resultaat plaatst in een totaal van waaruit wie weet weer nieuwe processen naar een nog beter resultaat kunnen ontstaan. Historiciteit is ook context.

2/ Machinevertalingen laten weer een ander aspect zien van hoe mensen informatie verwerken: het vermogen van mensen met situaties te werken die dubbelzinnig zijn zonder ze te hoeven preciseren. Rol context en 'ambiguity tolerance' (citaat p.119!): mensen kunnen dat doordat ze op een of andere manier de dubbelzinnigheid van talige uitspraken kunnen uitsluiten door een besef van de context waarin die uitspraken gedaan worden.

Kan een machine dat leren? Dat lijkt onwaarschijnlijk. A.L. Samuel zei (p.110) dat machines daarvoor niet intelligent genoeg kunnen zijn omdat ze alleen maar kunnen doen wat hen geïnstrueerd wordt te doen. Prachtig, mijn idee. Hoezo leren?

3/ Problemen oplossen. Mensen kunnen op basis van inzicht niet-wezenlijke alternatieven etc. wegfilteren en zich concentreren op de wezenlijke keuzes en afwegingen. Heel anders dan mechanische zoektechnieken doen. Hetzelfde met patroonherkenning: zie p.128 voor een samenvatting.

(130) Phase 2 (1962 - 1967): Semantic information processing

Het algebraprogramma STUDENT (sluit natuurlijke taal uit, dus ...). De auteur Brobrow is voorzichtig maar Minsky maakt er weer eens iets fantastisch van, zie p.137 voor hoe hij dat steeds weer aanpakt. Evans analogieprogramma: idem. Steeds weer blijken ad hoc oplossinkjes van zeer afgebakende problemen niet generaliseerbaar. Quillian's Semantic Memory Program: idem dito wat betreft generaliseerbaarheid (niet wat betreft pretenties).

(153) Deel 2: Assumptions underlying persistent optimism

De allereerste assumptie is natuurlijk dat menselijke en mechanische informatieverwerking via dezelfde soort processen verlopen. De daarvan afgeleide uitgangspunten staan helder op citaat p.156. Ze worden achtereenvolgens besproken.

(159) De biologische assumptie

Deze is steeds afhankelijk van de neurofysiologische stand van zaken / kennis.

Het 'neuron switch model' (een zenuwimpuls is er of is er niet, er wordt gevuurd of niet door het neuron - wat dus equivalent zou zijn met de digitale 0 en 1). Maar het brein werkt misschien eerder analoog of nog anders. Dat is gewoon niet duidelijk.

(163) De psychologische assumptie

Het brein werkt dus waarschijnlijk niet als een digitale computer, maar misschien de geest wel?

Dat is wel de stelling van AI: de geest werkt als een informatieverwerkende machine door te vergelijken, zoeklijsten te doorlopen, te classificeren, etc. De basis is hier het begrip 'informatie': betekenisvolle informatie wordt door programmeurs juist omgezet in betekenisloze atomistische stukjes technische informatie waarmee een computer kan werken.

De uiteenzetting van D. is op allerlei punten toch niet helemaal helder. Zo schakelt hij regelmatig heen en weer tussen brein en geest bijvoorbeeld. Zie p.166, 181, 195.

Er is geen empirische onderbouwing van dit psychologische uitgangspunt. D. verwijt AI hier een slechte wetenschappelijke werkwijze waarbij hypothesen nooit herzien worden door empirische ervaring.

Ik kan me voorstellen dat er een paar mensen kwaad werden op D. Ook zoiets essentieels als dit is niet helemaal helder en overtuigend. Wanneer je dit allemaal leest zou je eerder kunnen concluderen dat AI zinvolle informatie vervangt door technisch verwerkbare informatie als inkomende visuele etc. signalen.

Het verschil tussen 'het netvlies reageert op invallend licht en stuurt signalen naar de hersenen etc.' en 'Ger ziet een landschap voor zich dat hem doet denken aan zomers in de Italiaanse binnenlanden'. De eerste zin beschrijft weer informatie op technisch biologisch (brain) niveau. De tweede zin beschrijft informatie op psychologisch niveau.

Maar de bestaande psychologie wil menselijk gedrag van een afstandje verklaren en komt daarbij tot een benadering van de mens als een object en gaat voorbij aan gevoelens en betekeniservaringen van het subject en gaat daarbij dus een taal gebruiken die juist ook gebruikt wordt voor de neurofysiologie (het breinniveau) en die voor de AI-mensen dicht genoeg ligt bij de materiële kant van een computer.

Behaviorisme is een vorm van die laatste cognitieve psychologie, ook omdat er allerlei mentalistische regels verondersteld worden die voor computers bruikbaar zijn (de geest voert een regel uit, men spreekt van mentale operaties en processen; het taalgebruik is heel verwarrend omdat biologische, mentalistische en computer taal door elkaar heen gebruikt worden, zie voorbeeld op p.179).

Kern van de zaak is in feite dat de AI - psychologie er niet in slaagt duidelijk te maken hoe je van technische informatie ('sensory input') komt tot betekenisvolle informatie ('zien'). Of, zoals D. zegt: hoe je de kloof overbrugt tussen neurofysiologisch niveau en fenomenologisch niveau. De cognitieve psychologie lijkt daar ergens tussen in te hangen. Dat laatste stuk van D. is heel aardig, al had hij helderder die hele cognitieve psychologie de grond in kunnen boren door er meteen een fenomenologische benadering tegenover te zetten. Maar dat doet hij blijkbaar pas in Deel 3.

(189) De epistemologische assumptie

Menselijk gedrag is dus niet verklaarbaar in termen van het onbewust volgen van heuristische regels.

Maar kan het geformaliseerd worden en vervolgens gereproduceerd worden door machines? Het voorbeeld (zie p.189-191) van de planeten die geen regels volgen maar waarvan de bewegingen wel in wetmatigheden geformaliseerd kunnen worden zodanig dat we de bewegingen ervan kunnen beschrijven alsof ze regels volgen. Of het voorbeeld van het fietsen (zie noot 2 op p.330-331): als ik de formele regels ken, kan ik nog niet fietsen! Er is een verschil tussen verklaren / begrijpen en 'performance' (het doen van iets).

Dit sluit aan bij wat ik altijd beschreven heb als het verschil tussen gedrag van buitenaf verklaren en het handelen van mensen van binnenuit begrijpen. M.a.w.: Ook al kan ik iets van menselijk gedrag formaliseren, dan kan ik dat nog niet in een machine stoppen zodanig dat die machine dat gedrag kan reproduceren en uitvoeren! In dit verband zou ik AI-deskundigen willen adviseren een robot te leren fietsen zoals ze wellicht hun kinderen leren fietsen.

Dus: 1/ Het formaliseren van menselijk gedrag - zelfs al zou men puur het fysiologisch-chemische, m.a.w. alleen het fysieklichamelijke aspect ervan proberen te formaliseren - is praktisch onmogelijk. Het succes van de fysica kan men daarbij niet als voorbeeld nemen. 2/ Een formele theorie van linguïstische competentie als die van Chomsky zegt niets over het gebruik van taal en dus niets over het 'performance'-niveau. Een formele pragmatiek is ondenkbaar omdat computers niet in een situatie, een context zitten en praktische intelligentie missen.

(206) De ontologische assumptie

Deze is: de wereld is analyseerbaar in preciese, afzonderlijke data. En komt overeen met een lange filosofische traditie (Plato. Leibniz, Hume, sense data theoretici) waarin als het ware de berekenbaarheid van de wereld centraal staat (zie Wittgenstein I als topper).

Deze opvatting is inmiddels fundamenteel bekritiseerd (Merleau-Ponty, Heidegger, Wittgenstein II). Weer eens: het belang van de situatie, de context, die niet gelijk is aan weer een andere verzameling feiten, maar de feiten voor mensen selecteert en op relevantie screent. De tegenstelling feit - situatie moet losgelaten worden, feiten zijn een product van de situatie. Conclusie op p.224.

(229) Deel 3: Alternatives to the traditional assumptions

D. is voortdurend onzeker en bezig met zich te verontschuldigen. Wat een onzin. De hele westerse traditie deugt nu eenmaal niet. So what! Laat maar eens zien dat het anders kan.

Er zijn drie gebieden die de basis vormen voor intelligent gedrag: het lichaam, de situatie, doelen en behoeften.

(235) De rol van het lichaam

De rol van de innerlijke en uiterlijke horizon (242). Merleau-Ponty (248 ev). Conclusie.

Het is allemaal voor de hand liggend voor me. Blijkbaar niet voor D. Waarom blijft hij bijvoorbeeld zo koppig in termen van menselijk gedrag praten, in plaats van over te schakelen naar het idee handelen?

(256) De situatie: ordelijk gedrag zonder naar regels te grijpen

Niet alles kan geregeld zijn voor álle menselijke situaties. Te denken dus dat wat mensen doen in alle gevallen via regels verloopt is daarom onzinnig.

Hij beschrijft weer eens het relevantie- en het hoofdzaak - bijzaak - criterium zoals dat bij mensen voortdurend meespeelt. Mensen zijn voortdurend in een situatie, computers niet en kunnen dus ook niet zelf de relevantie van feiten beoordelen. Heidegger en Wittgenstein worden opgevoerd.

Weinig diepgang hier. Wel heel veel herhalingen. Amerikanen hebben vaak weinig inzicht in de Europese filosofie, doen vaak alsof zij de grote ontdekkingen doen terwijl hun inzichten bij Europese denkers al lang gemeengoed zijn. Die indruk wekt D. ook nogal. Voor de hand liggende koppelingen worden niet eens gemaakt, zoals de relatie tussen gesitueerdheid en historiciteit, terwijl hij toch ook zelf het belang van geschiedenis in het kennen beschreef in eerdere bladzijden. Daarnaast worden standpunten ingenomen die in Europa al lang achterhaald zijn.

(272) De situatie als een functie van menselijke behoeften

Citaat op p.273 van Watanabe over de waardenachtergrond van mensen in hun doelen, wat ontbreekt bij machines.

Dat stukje is goed!!. Wat hij verder te berde brengt over waarden en behoeften is slecht en bovendien typisch Amerikaans chauvinistisch. Verder: waarom over behoeften praten in biologische termen, alsof behoeften alleen maar vastliggen in het menselijk lichaam. Zie 290. Conclusie op p.281.

(283) The scope and limits of artificial reason

Als de pretenties losgelaten worden kunnen we om een aantal redenen toch wel iets hebben aan AI onderzoek.

Weer veel herhaling. Het boek had de helft van het aantal pagina's kunnen hebben. En natuurlijk toch weer mensen ontzien en niet consequent harde conclusies trekken uit je redeneringen. Gek hoor, er staat zo links en rechts dat Dreyfus zo hard zou zijn in zijn aanvallen op AI-mensen. Die indruk heb ik helemaal niet gekregen. Hij had trouwens ook niet zo naar Heidegger en Wittgenstein hoeven te grijpen om zijn punten te scoren, maar goed. Het boek bevat interessante punten.

Start  ||   Glossen  ||   Weblog  ||   Boeken  ||   Denkwerk