De geschiedenis van de artificiele intelligentie begint in 1950, met een artikel van Alan Turing, getiteld ‘Computing Machinery and Intelligence’. Daarin voorspelt hij onder meer dat computers rond het jaar 2000 een intelligentie zouden hebben die vergelijkbaar is met die van mensen. Sinds die tijd wordt er overal op de wereld gewerkt aan computerintelligentie. In eerste instantie in de vorm van General Problem Solvers (Simon, Shaw & Newell). De GPS moest opdrachten kunnen vervullen en vragen kunnen beanwoorden. Als je hem opdracht zou geven een pot thee te zetten, zou hij zelfstandig op zoek gaan naar een theepot, een kookplaat, een bus thee en een waterkraan en die gebruiken om een pot thee te zetten. Maar wat ons simpel lijkt, bleek voor de computersystemen van de zestiger jaren een brug te ver. Niet alleen moest het systeem een theepot kunnen herkennen en de andere genoemde voorwerpen, hij moest ook de stappen kunnen afleiden die nodig zijn om tot een volle pot thee te komen. Het moest logische regels kennen om uit bekende feiten nieuwe feiten af te leiden en op de hoogte zijn van het recept van thee. Al gauw bleek dat voor zo’n alledaagse handeling als het zetten van een pot thee er een behoorlijke feitenkennis nodig was, laat staan voor alle handelingen die nodig zijn om de dag door te komen.
De GPS waren geen succes, onder meer door de enorme hoeveelheid feitenkennis die nodig bleek om in de dagelijkse praktijk te kunnen functioneren. Toen probeerde men het met Expert Systems. Computerspecialisten interviewden artsen en ingenieurs om hun kennis vast te leggen en die naar de computer te vertalen. Zij vertaalden wat die deskundigen hen vertelden in speciale computertalen als Lisp en Prolog. Expert systems zouden intelligente beslissingen kunnen nemen. De programma’s bestonden vaak uit lange rijen ‘als X dan Y’ regels, gevolgd door handelingsvoorschriften die nieuwe gegevens moesten opleveren, zoals “Als de bloeddruk te hoog is, vraag naar de hoeveelheid zout die de patient bij de maaltijd gebruikt”. Maar ook dat werkte niet. De programma’s maakten onbegrijpelijke fouten. De systemen werden gewoon te ingewikkeld om consistent te zijn.
Turings voorspelling is niet uitgekomen. De algoritmische AI was geen succes. Intuïtieve kennis was vaak moeilijk expliciet te maken en wat de programma’s produceerden was soms volkomen onbegrijpelijk. Reden om af te zien van de menselijke vertaling en de computer zelf het werk laten doen. Men construeerde elektronische neuronennetwerken die zelf moesten leren waar het bij intelligente beslissingen om gaat. Ze werden stapsgewijs geconfronteerd met nieuwe gegevens, en leverden daarbij conclusies die bij iedere stap betrouwbaarder moesten worden. Door het netwerk telkens andere gegevens te presenteren, met daarbij de gewenste uitkomsten kon het stap voor stap zijn programma bijstellen. Dit lijkt op de manier waarop baby’s hun omgeving leren kennen, alleen hebben lerende computers veel meer gegevens nodig voordat hun resultaten enigszins betrouwbaar zijn. Ook hier geldt ‘garbage in, garbage out’. Zo bleek een programma dat hondenrassen moest bepalen aan de hand van foto’s van die dieren, Husky’s, typische sledehonden, te herkennen aan de sneeuw op de achtergrond, in plaats van aan de kenmerken van het dier zelf. Machine learning omvat, net als ieder leerproces, een evolutie.
Wat de machine doet is iets anders dan wat mensen doen. Baby’s leren veel efficiënter dan computers, onder meer omdat ze actief hun omgeving onderzoeken. En computers zijn niet erg creatief. Binnen een bepaald medium kunnen ze vernieuwend werken. Maar zelf initiatieven nemen om hun bestaan te verbeteren en hun horizon te verbreden kunnen ze, in tegenstelling tot mensen, (nog) niet.