>>>  Laatst gewijzigd: 9 maart 2020  
Ik

Woorden en Beelden

Filosofie en de waan van de dag

Start Glossen Weblog Boeken Denkwerk

Geschiedenis van de Artificiële Intelligentie

Voorkant boek Crevier Daniel CREVIER
AI - The tumultuous history of the search for artificial intelligence
New York: Basic Books, 1993; 386 blz.

Introduction

Allereerst de redenen waarom de onderzoekers in AI zo overdreven optimistisch deden over hun succes en toekomst.

[Dat is niet zo moeilijk. Uiteraard was de belangrijkste reden: geld; je moet in de VS overal hard schreeuwen en veel bluffen om je 'grants' binnen te halen. Dus wat doe je? Je laat alles wat ingewikkeld en riskant is weg, concentreert je op formele en logische processen als in rekenkundige zaken, en roept vervolgens dat computers slimmer zijn dan mensen. Dat dat op beleidsmakers en zo indruk maakt heb ik nooit begrepen. Natuurlijk kan een machine uiteindelijk sneller rekenen dan een mens, so what. Een pomp kan ook sneller water wegpompen dan mensen met hun blote handen zouden kunnen wegscheppen. Wat zegt dat nu?!]

Hoofdstuk 1

"AI is the science of making machines do things that would require intelligence if done by men."(9)

[Al meteen dat citaat van Marvin Minsky dat alle vaagheid bevat die maar mogelijk is. Want wat is hier 'intelligentie' en wat is hier dingen 'doen'? Ik zie een vrucht aan een boom hangen. Ik kan er niet bij, kan niet in de boom klimmen. Maar ik zie wel een stok liggen en die gebruik ik als middel om mijn doel - het uit de boom verwijderen van die vrucht zodat ik hem op kan eten - te bereiken. Ik ben degene die die situatie analyseert, een probleem neerzet, een oplossing verzint, en iets met een stok als middel doe. Zonder mij is die stok niets, nou ja, gewoon een stok als deel van alles om me heen, maar ik interpreteer hem niet als middel voor mijn doel. Is de stok nu intelligent of ik? Ik. Doet de stok iets of doe ik iets? Ik. Hetzelfde met een machine als de pomp. Hetzelfde met een computer. Een computer is dus niet intelligent en doet niets zonder mij. Ik ben intelligent.]

[Volgt een geschiedenis van de computer en van het zoeken naar formalisering van het denken. Zo'n overzicht laat weer zien dat al het werk zich concentreert op logica, het logisch manipuleren van symbolen, terwijl men de betekenis van de symbolen, de relatie met de wereld vergeet of bewust verwijdert. Crevier ziet dat heel goed blijkens tussenzinnetjes als "one more defeat for pure logic as a means of dealing with the world"(23) waar het gaat over de beperkingen van de Turing machine. Wanneer ik die geschiedenis van de formele logica weer eens lees, komen al mijn eigen ervaringen met het lesgeven er in, met het logisch positivisme etc. etc. weer boven drijven. In de benadering daarvan zat ik ook steeds op de lijn van de betekenis en de context van taal, redeneren etc., kortom: van de relatie van het denken en spreken van mensen met de werkelijkheid waarin zij leven.]

[Ook die Turingtest ergert me al jaren. Als ik aan een mens resp. aan een computer vraag: hoeveel is 4 x 4 en ik krijg twee keer het antwoord '16', dan al kan ik geen onderscheid meer maken tussen die mens en een computer aan de andere kant van de muur. Maar dan hoef ik die computer nog niet 'denkend' of 'intelligent' te noemen. Het betekent dat hij een resultaat kan leveren op grond van een regel die mensen verzonnen hebben en in die computer hebben weten te stoppen. Lijkt een computer daarom op een mens?]

Hoofdstuk 2

[Dit hoofdstuk biedt een leuke 'inside story' over het begin van AI. Interessant toch die Norbert Wiener met zijn cybernetica en zijn 'feedback theory' wanneer je het in samenhang brengt met informatie:]

"Wiener recognized that central to feedback theory is the idea of information. In essence, feedback mechanisms are information-processing devices: they receive information and then make a decision based on it. Wiener speculated that all intelligent behavior is the consequence of feedback mechanisms: perhaps by definition, intelligence is the outcome of receiving and processing information."(28)

De vraag is wel of we hier van data of van informatie moeten spreken. Verder verhalen over de neurale netwerken van McCulloch, Pitts, Hebbs. Verantwoordelijk zo vroeg al voor de misvatting ...

"... that our brains work like digital computers. They don't, and it took many years to draw AI research away from the dead end path inspired by this misconception."(30)

Verder over Marvin Minsky en John McCarthy, en over Herbert Simon en Allan Newell die het eerste AI-programma Logic Theorist (1955/56) schreven via welk een computer een redelijk complex probleem kon oplossen. De term 'Artificial Intelligence' werd geboren tijdens de Dartmouth Conference van 1956. Zie p.48-49 voor een beschrijving van de basisopvatting van deze groep die 20 jaar het aanzien van AI zou bepalen.

Hoofdstuk 3 (1956 - 1963)

Dit hoofdstuk beschrijft de verschuiving van het uitproberen van mogelijkheden van de computer naar het simuleren van de cognitieve processen in mensen, bij Newell / Simon althans. Anderen vonden het onnodig om te bestuderen hoe het menselijk brein werkt (de menselijke cognitie wordt waarschijnlijk bedoeld).

[Uitvinding van LISP en 'time sharing' door McCarthy, de slimste van alle genoemde mensen, denk ik. Minsky is meer de reclamemaker, de uitlegger, de organisator van wat anderen onder zijn directie aan het MIT-Lab deden).]

Rond 1965 is er het verschijnsel van de 'hackers' waarop Weizenbaum zo lekker scheldt. Conclusie op p.72-73.

Hoofdstuk 4 (1963 - 1970)

Interessant dat Chomsky's 'grammar' wel regels gaf die je in een computerprogramma kon stoppen, maar dat het vertalen desondanks niet lukte vanwege de noodzaak de betekenis van zinnen te interpreteren.

Het 'Blocks Micro Worlds'-project aan het MIT van Seymour Papert die LOGO ontwikkeld heeft.

Computer Vision, één van de moeilijkst op te lossen problemen in AI (dus de directe visuele invoer via een camera of sensoren). Terry Winograd is student van Papert (als zovele anderen trouwens) - SHRDLU.

Minsky en Papert knallen het Perception-project en daarmee het onderzoek naar neurale netwerken af in 1969-70, wat dat soort onderzoek voor zo'n 10 tot 15 jaar stopzet!

Hoofdstuk 5 (Clouds on the AI-horizon)

Het automatische vertalen bleek veel ingewikkelder dan men dacht. Ook de 'micro worlds' stelden teleur:

"The sad truth, as proponents of micro worlds realized, was that you cannot define even the most innocuous and specialized aspect of human usage without reference to the whole of human culture."(114)

Transfer van resultaten bleek veel minder eenvoudig, meer 'wereld' niveau lukte duidelijk niet. M.a.w.: geen 'grants' meer van DARPA. Vanaf 1970 worden de fundamentele assumpties van AI ter discussie gesteld, met name "the applicability of mathematical logic to the analysis of everyday life."(118)

Dreyfus (p.120-132) schrijft absoluut onaardige stukjes over AI, al in 1961 en 1966. Hij werd door de AI-club op het MIT (hij gaf daar ook les en had als achtergrond Merleau-Ponty, Sartre, Heidegger) buitengesloten. Hij stapt over naar Berkeley en in 1972 publiceert hij What computers can't do (in 1979 nieuwe editie). Als tegenwicht: psychologische assumptie geldt niet voor allerlei AI-ers (128), het contextprobleem (128-129), hij heeft geen alternatieve theorie als tegenhanger (132).

Weizenbaum (p.132-144) publiceert in 1976 Computer Power and Human Reason. De Eliza-kwestie geeft hem morele bezwaren tegen AI. Net als Dreyfus had hij ook oog voor de sensomotorische, de lichamelijke kant aan het kennen.

Hoofdstuk 6 (The tree of knowledge 1970 - 1980)

Men is op weg naar de eerste expertsystemen:

"The switch from qualitative studies in the control and the expression of knowledge to the manipulation of massive amounts of it marks a turning point in the history of AI."(146)

Een en ander hangt zeker samen met de ontwikkeling van de computer als machine (meer RAM etc). DENDRAL-project van Edward Feigenbaum van 1965 - 1975: omzetting van heuristieken van deskundigen uit de praktijk van bijvoorbeeld de moleculaire biologie in een aantal IF-THEN-regels. MY-CIN-project van Buchanan en Shortliffe van 1970 - 1972: expertsysteem voor de diagnose van 'infections blood diseases' waarbij een scheiding van de 'knowledge base' van regels en de logica van de 'inference engine' door-gevoerd wordt. De paradox van het AI-onderzoek:

"The only way to deal efficiently with very complex problems is to move away from pure logic."(154-5)

Expertsystemen hebben niet met redeneringen te maken maar met kennis van zaken. Het probleem is gelegen in de omzetting van expertise in een verzameling regels (de 'knowledge base' voor de computer dus). De discipline die dat aanpakt heet 'knowledge engineering'. TEIRESIAS is het eerste voorbeeld van een dergelijk programma. Het eerste commerciële expertsysteem is XCON van John McDermott van 1980.

Hoofdstuk 7 (Coming of age)

Ontwikkeling 'natural language processing programs'. Bv. Roger Schank The cognitive computer van 1985. Begrip voor tekst, voor 'conceptual dependencies', voor het parafraseren en vertalen van tekst bevond zich tot 1980 in een langzame groei.

Minsky publiceert A framework for representing knowledge: die 'frames' moeten dus dienen om het denken van mensen te verklaren. Leren is het opbouwen van nieuwe 'frames'. 'Frames' zijn eigenlijk brokken informatie in meer abstracte zin die iemand opgeslagen heeft en steeds weer gebruikt in allerlei omstandigheden. Leren is dan het opdoen van nieuwe brokken informatie en het koppelen ervan aan reeds bestaande.

Expertsystemen verschillen in aanpak: soms moeten de heuristische regels aan de computer 'verteld' worden; soms leert het programma via voorbeelden c.q. inductie; soms via ontdekking (Lenat). David Marr's studie van 'vision'. Colmerauer (?) en Kowalski ontwikkelen de programmeertaal voor AI met de naam PROLOG.

Hoofdstuk 8 (The rollercoaster of the 1980's)

AI wordt langzamerhand een mondiale industrie. Expertsystemen vervangen in het bedrijfsleven mensen: ze hoeven niet opgeleid te worden, worden niet ziek of humeurig of moe, leveren constante prestatie, en lopen niet over naar de concurrent. Vanaf 1987 ontstaan er weer problemen: het in stand en actueel houden van de 'knowledge base' kost enorm veel tijd en menskracht; en hoe meer regels er zijn hoe moeilijker de gevolgen door alle combinatiemogelijkheden te voorspellen zijn; en het blijvende probleem van het omzetten van expertise in preciese regels (door o.a. het gegeven dat experts vaak niet in regels redeneren):

"Perhaps the most significant objection to first-generation expert systems was that they did not (and still don't) really understand what they reason about. Machinelike they handle empty tokens of knowledge that they rec-ognize but do not comprehend. Though they will on occasion show a surprising likeness of human reasoning and competence, it is a void parody, the narrow performance of an automaton instead of a creditable copy of human thought."(205)

Expertsystemen werken volgens het boekje, kunnen om allerlei redenen niet ineens uitzonderingen maken (bijvoorbeeld tetracycline niet voorschrijven aan kinderen onder 12 jaar).

"This example shows again another uncanny ability of human beings that expert systems could not (and still can't) duplicate: we understand that some principles apply, unless there are good reasons why they don't."(206)

Expertsystemen kunnen in veel gevallen ook niet constateren dat informatie ontbreekt en waar die te vinden is. Verder hebben ze problemen met tijd, causaliteit, en kunnen ze niet leren.

Door te veel te vertrouwen op LISP(-machines) gingen veel bedrijven die expertsystemen verkochten of afdelingen van bedrijven die ze zelf ontwikkelden het rond 1985 moeilijk krijgen met de opkomst van 'personal computers'.

Je ziet rond 1990 wel weer wat herstel optreden, maar men heeft minder pretenties: expertsystemen worden niet meer (zo) gericht op het vervangen van mensen, ze moeten mensen ondersteunen.

Na 1985 zie je een opleving van neurale netwerken: connectionisme, 'parallel computing', 'distributed computing', etc. Lijkt overigens dezelfde weg te gaan als de symbolenmanipulatie van AI. Nieuw element: fuzzy logic.

Hoofdstuk 9 (Gameplaying: checkmate for machines?)

Schaakprogramma's schaken niet als mensen en leren ons in die zin niets / weinig nieuws over de menselijke cognitie. Ze boeken resultaat als mensen, zelfs beter resultaat. De vraag is of je dat op grond daarvan al 'intelligente programma's' moet noemen. Crevier geeft eigenlijk geen antwoord op die vraag.

Hoofdstuk 10 (Souls of silicon)

[Zo langzamerhand begin ik ongeduldig te worden. Goed, dan bouwen we machines die 'beter' kunnen schaken dan mensen, die kunnen ondersteunen bij het doen van analyses en het nemen van beslissingen, die tekst direct kunnen vertalen van de ene naar de andere levende taal, etc. So what? Al dat geld, al die menskracht, al die tijd die gestopt wordt in het maken van zogenoemde 'intelligente computerprogramma's'. Waarom? Wat is de motivatie om daaraan zo veel aandacht te besteden? Leren ze ons iets nieuws over mensen? Het lijkt er niet op, ze worden gemaakt op basis van wat mensen al doen en leveren niets nieuws op dat mensen niet al zelf hadden kunnen bedenken. Sterker nog: als een computer al iets nieuws zou kunnen 'bedenken', dan zou een mens dat eigenlijk helemaal niet eens moeten kunnen herkennen. Dus: waarom zou je computers dingen laten doen die mensen al kunnen? Ik heb defensiemotieven gezien (DARPA en zo), ik heb economische motieven gezien (expertsystemen die mensen vervangen) en pure nieuwsgierigheid en arrogantie en ambitie. Maar wat zijn humane motieven? Waarom zou het in het voordeel van mensen zijn wanneer computers prestaties kunnen leveren die voorheen mensen leverden (toegegeven: misschien langzamer, maar mensen hielden van hun werk, hadden gevoel voor omstandigheden, machines etc)?]

Janet Kolodner: Case Based Reasoning - project. Lenat: CYC-project (moet alle mogelijke alledaagse kennis bevatten). De relatie met de psychologie wordt sterker (schemata, 'frames', categorisatie, prototypering) en leidt tot de ontwikkeling van wat heet cognitieve wetenschappen, waarbij veel onbegrip blijkt te bestaan tussen psychologen en de AI-hoek. Programma's worden meer opgesplitst in kleine modulen. De programmeertalen SIMULA en SMALLTALK ontstaan (het object georiënteerde programmeren wint veld - zie ook Minsky's The Society of Mind). Te simpel:

"The fact that one can build pieces of mind out of nonmind substance like computer circuitry may just show that mind naturally emerges out of properly organised matter."(264)

[Zo maar? Je bouwt een computer en, hup, daar is de intelligentie en de geest? Gaat de computer zélf op zoek naar een programma om ervaringsgegevens vast te kunnen leggen en te verwerken voor allerlei nieuwe situaties? Gaat een computer zélf om stroom schreeuwen als die er niet is om te kunnen werken? Een computer als materie is niets zonder een programma dat mensen er in stoppen. Er is geen sprake van 'naturally emerging mind', mensen stoppen dat er altijd nog in, ook bij een computer die dan vervolgens fantastische prestaties levert. Zelfs de meeste verdere informatie wordt bewust door mensen ingevoerd. Er is bij computers geen intentionaliteit, geen gerichtheid op de werkelijkheid, geen behoefte of motivatie om een probleem aan te pakken en op te lossen.]

[Wat een computer ook doet, het zal altijd anders zijn dan bij mensen, omdat de materie van de mens zijn lichaam is in al zijn facetten (niet alleen zijn brein dus, die inperking in veel AI ergert me al langer) die alle de geest maken in interactie met de omgeving. Hoe wil je boosheid en ergernis uit de materie van een computer laten voortkomen? En ook al zou een computer er gevoelens op na kunnen houden, we zouden het niet weten tenzij een computer die zou kunnen uitdrukken als een mens (expressie, non-verbaal naast verbaal).]

[Wat betekent nu toch die 'mind-brain-association'? Hoezo is het zo raar dat "even (sic) our minds have purely material origins"(265)? Wat is het probleem daaraan? Ik zit er niet mee. De materie waaruit ik besta is trouwens van een geheel andere orde dan de materie waaruit een computer bestaat. Het citaat van Hans Moravec op p.266 laat weer eens zien hoe bespottelijk hier in AI-kringen over gedacht wordt.]

In dit hoofdstuk wordt beschreven hoe men ging onderscheiden in sterke tegenover zwakke AI. John R. Searle wordt opgevoerd met zijn 'Chinese room' - experiment.

[Tamelijk zinloos al die gedachtenexperimenten. En al die pagina's over het zelf en over religie sla ik maar helemaal over.]

Hoofdstuk 11 (How many bulldozers for an ant colony)

[Crevier begin onzin uit te kramen ("... brain must reassemble the raw elements of data that our senses supply"(281). Nee, waarschijnlijk werkt het zo juist niet. Die data zijn ook niet zonder meer informatie die we tot kennis ombouwen. Crevier zit nog steeds over de hersenen te praten in termen van computer hardware en dat zou hem moeten alarmeren. Juist met het achterlopen van de software nú en met de filosofische implicaties van een dergelijke manier van praten / denken doet hij niets.]

Hoofdstuk 12 (The silicon challengers in our future)

AI "is, at least in the United States, first and foremost a military affair."(313)

[Dat had ik ook ontdekt, ja. Volgt een onzinnig Colossus-verhaal. Crevier lijkt helemaal te abstraheren van maatschappelijke factoren die de ontwikkelingen die hij verwacht zouden kunnen belemmeren en tegenhouden. Hij had er beter aan gedaan het te houden bij het schrijven van een geschiedenis van AI. Filosoferen gaat hem in ieder geval erg slecht af. Zijn visies in de laatste hoofdstukken zijn dan ook van de bekende oppervlakkige Amerikaanse soort. Ze leren het nooit daar.]

Start  ||   Glossen  ||   Weblog  ||   Boeken  ||   Denkwerk