
Gepubliceerd op 27 maart 2025
Een Persoonlijke Introductie
Eind jaren '90 studeerde ik Psychologie aan de Rijksuniversiteit Leiden met als verbijzondering Kunstmatige Intelligentie. Een combinatie die nog steeds verbaasde blikken oplevert wanneer ik het vertel. "AI en psychologie? Wat hebben die met elkaar te maken?" Meer dan de meeste mensen zich realiseren.
Als student werkte ik mee aan onderzoeken over de ontwikkeling van taal bij mensen, met de hoop dit ooit te kunnen vertalen naar kunstmatige spraak en AI. In de kelder van gebouw 5 stond wat wij trots een 'neuraal netwerk' noemden: een indrukwekkende opstelling van 20 printplaten met ieder 20 processoren in een parallelle setup. Het lukte om dit systeem een 'lerend karakter' te geven - een prestatie die nu misschien bescheiden lijkt, maar destijds grensverleggend was.
De onderzoeken naar AI zijn altijd fascinerend geweest voor mensen. Al vroeg in de geschiedenis van computerwetenschappen droomden we van machines die konden denken zoals wij. Die droom, geworteld in zowel filosofie als psychologie, heeft een fascinerende reis afgelegd - een reis die ik graag met jullie deel.
Kunstmatige intelligentie (AI) domineert tegenwoordig onze nieuwsberichten en dagelijkse gesprekken. Van chatbots die essays schrijven tot zelfrijdende auto's - AI lijkt overal. Maar hoe zijn we hier gekomen? Het verhaal van AI is een fascinerende reis door filosofie, psychologie, wiskunde, computerwetenschappen en zelfs bedrog. In deze blogpost neem ik je mee op een chronologische reis door de geschiedenis van kunstmatige intelligentie.
De Psychologische en Filosofische Oorsprong
Lang voordat computers bestonden, worstelden filosofen al met vragen over denken, bewustzijn en intelligentie. Aristoteles' werk over logica en redenering in de 4e eeuw v.Chr. legde de basis voor systematisch denken over cognitieve processen. Later stelde René Descartes in de 17e eeuw fundamentele vragen over het onderscheid tussen geest en machine.
Wat vaak over het hoofd wordt gezien is dat AI-onderzoek oorspronkelijk beschouwd werd als een onderdeel van de psychologie. De eerste AI-onderzoekers waren vaak psychologen die probeerden menselijke cognitieve processen te modelleren. Ze zagen computers als een hulpmiddel om psychologische theorieën te testen en modellen van het menselijk denken te bouwen. Dit verklaart waarom vroege AI-programma's zoals GPS (General Problem Solver) expliciet ontworpen waren om menselijke probleemoplossingsstrategieën na te bootsen.
De cognitieve psychologie en AI ontwikkelden zich aanvankelijk als zustergebieden. Psychologen zoals Herbert Simon en Allen Newell, beiden pioniers in AI, benadrukten de parallellen tussen computationele processen en menselijke cognitie. Hun werk bouwde voort op de informatieverwerkingstheorieën uit de psychologie.
Vroege Mechanische "Intelligentie" (18e-19e eeuw)
De Mechanische Turk (1770)
Een van de eerste schijnbare demonstraties van "kunstmatige intelligentie" was ironisch genoeg een goed uitgevoerd bedrog. De Mechanische Turk, gecreëerd door Wolfgang von Kempelen, was een schaakmachine die ogenschijnlijk autonoom kon spelen. De machine versloeg beroemde tegenstanders zoals Napoleon Bonaparte. In werkelijkheid verborg het mechanisme een menselijke schaakmeester. Hoewel het geen echte AI was, stelde het belangrijke vragen over de mogelijkheid van denkende machines.
Babbage en Lovelace (1820-1830)
Charles Babbage ontwierp de Difference Engine en Analytical Engine, conceptuele voorlopers van moderne computers. Ada Lovelace, die samenwerkte met Babbage, schreef wat vaak beschouwd wordt als het eerste computerprogramma. Opvallend genoeg speculeerde ze over de mogelijkheid dat machines ooit creatief konden zijn - een vroege visie van AI.
Computationele Grondslagen (1940-1950)
Alan Turing (1936-1950)
De moderne theoretische basis voor AI werd gelegd door Alan Turing. Zijn concept van een universele rekenmachine (1936) toonde aan dat elke berekening die in principe uitvoerbaar is, door een machine kan worden uitgevoerd. In 1950 publiceerde hij "Computing Machinery and Intelligence", waarin hij de beroemde Turingtest voorstelde als criterium voor machinale intelligentie.
Neurale Netwerken (1943)
Warren McCulloch en Walter Pitts ontwikkelden het eerste mathematische model van een neuraal netwerk, geïnspireerd door de werking van het menselijk brein. Dit model legde de basis voor latere ontwikkelingen in deep learning.
Grey Walter's Tortoises (1948-1949)
William Grey Walter bouwde twee autonome robots, liefkozend "Elmer" en "Elsie" genoemd. Deze "elektronische schildpadden" konden licht detecteren, obstakels vermijden en zelfs hun eigen oplaadstations vinden. Met minimale elektronica demonstreerden ze verrassend complex gedrag - een vroeg voorbeeld van wat we nu "embodied intelligence" noemen.
Arthur Samuel's Damcomputer (1952)
Arthur Samuel ontwikkelde een dambordprogramma dat leerde van ervaring en gaandeweg beter werd dan hij zelf. Dit was een vroeg en opvallend voorbeeld van machine learning, decennia voor de term gemeengoed werd.
De Geboorte van AI als Discipline (1950-1960)
De Dartmouth Conference (1956)
De term "Artificial Intelligence" werd officieel gemunt in 1956 tijdens een workshop op Dartmouth College, georganiseerd door John McCarthy. Deze historische bijeenkomst bracht pioniers samen zoals Marvin Minsky, Claude Shannon en Nathaniel Rochester. Zij stelden dat "elk aspect van leren of enig ander kenmerk van intelligentie in principe zo precies kan worden beschreven dat een machine kan worden gemaakt om het te simuleren."
Logic Theorist (1956)
Allen Newell en Herbert Simon ontwikkelden het Logic Theorist, vaak beschouwd als het eerste AI-programma. Het kon wiskundige stellingen bewijzen en combineerde voor het eerst formele logica met computationele mogelijkheden.
The General Problem Solver (1957)
Newell en Simon's volgende project, GPS, was ontworpen om algemene problemen op te lossen door middel van doelgerichte redenering - een directe poging om menselijke probleemoplossingsstrategieën te modelleren.
Het Eerste AI-Optimisme (1960-1970)
DENDRAL (1965)
Ontwikkeld aan Stanford University, was DENDRAL een van de eerste expertsystemen. Het kon de moleculaire structuur van organische verbindingen voorspellen op basis van massaspectrometrie-gegevens - een vroege toepassing van AI in de wetenschap.
SHAKEY (1966-1972)
SRI International ontwikkelde SHAKEY, een van de eerste robots die redeneren, perceptie en actie combineerde. SHAKEY kon navigeren door kamers, objecten manipuleren en eenvoudige taken uitvoeren op basis van instructies.
ELIZA (1966)
Joseph Weizenbaum creëerde ELIZA, een vroege natuurlijke-taalverwerkingsprogramma dat een therapeut simuleerde. Hoewel eenvoudig in opzet, verraste ELIZA velen door schijnbaar betekenisvolle gesprekken te voeren.
SHRDLU (1968-1970)
Terry Winograd's SHRDLU kon natuurlijke taal begrijpen in de context van een gesimuleerde blokkenwereld. Het programma kon blokken manipuleren volgens verbale instructies en vragen beantwoorden over zijn handelingen en de staat van de wereld.
Eric the Robot (1928)
Een opmerkelijke voorloper uit deze periode was Eric the Robot, gecreëerd door W.H. Richards in het VK. Eric was een van de eerste humanoïde robots, die kon opstaan, buigen en spreken via een radio-operator. Hij werd tentoongesteld op de Society of Model Engineers in Londen.
De Eerste AI-Winter (1970-1980)
WABOT-1 (1973)
De Waseda Universiteit in Japan ontwikkelde WABOT-1, de eerste full-scale antropomorfe robot met ledematen, visie en spraakherkenning.
Het Lighthill-rapport (1973)
Sir James Lighthill schreef een kritisch rapport over de beperkte vooruitgang in AI, wat leidde tot drastisch verminderde financiering in het VK en elders. Dit markeerde het begin van wat bekend zou worden als de "AI Winter" - een periode van verminderde interesse en investeringen.
Expert Systems en Kennisgebaseerde Benadering (1980-1990)
MYCIN (vroege jaren '80)
MYCIN was een expertsysteem voor het diagnosticeren van bloedbacterieinfecties en het aanbevelen van antibioticabehandelingen. Het presteerde vaak beter dan jonge artsen en demonstreerde het potentieel van AI in de geneeskunde.
Symbolics (1980)
Een van de eerste commerciële bedrijven gericht op AI-toepassingen, Symbolics, werd opgericht en ontwikkelde geavanceerde Lisp-machines specifiek voor AI-onderzoek.
De Tweede AI-Winter (1990-begin 2000)
De beperkingen van expertsystemen werden duidelijk: ze waren moeilijk te onderhouden, niet schaalbaar, en konden niet leren. Bovendien bleken ze zeer domeinspecifiek zonder de "algemene intelligentie" waar velen op hoopten. Hierdoor daalde de financiering en interesse in AI opnieuw.
Statistische Methoden en Machine Learning (2000-2010)
In deze periode verschoof AI van op regels gebaseerde systemen naar data-gedreven, probabilistische modellen. Machine learning-technieken zoals Support Vector Machines, Bayesiaanse netwerken, Random Forests en verbeterde neurale netwerken wonnen aan populariteit.
Deep Learning Revolutie (2010-2015)
AlexNet (2012)
Een keerpunt kwam in 2012 toen AlexNet, een diep convolutional neuraal netwerk ontwikkeld door Alex Krizhevsky, Ilya Sutskever en Geoffrey Hinton, de ImageNet-competitie won met een significant verbeterde nauwkeurigheid in beeldherkenning. Dit moment wordt vaak gezien als het begin van de deep learning-revolutie. Plotseling konden computers beelden, spraak en natuurlijke taal verwerken met ongekende precisie.
Doorbraken in Reinforcement Learning (2015-2018)
AlphaGo (2016)
DeepMind's AlphaGo markeerde een historisch moment toen het wereldkampioen Lee Sedol versloeg in het complexe bordspel Go. Dit werd beschouwd als een enorme uitdaging voor AI vanwege het astronomische aantal mogelijke posities in het spel.
AlphaZero (2017)
Een verbeterde versie, AlphaZero, leerde zichzelf schaak, go en shogi spelen op wereldkampioenschapsniveau door simpelweg tegen zichzelf te spelen, zonder menselijke kennis behalve de spelregels.
Het Tijdperk van Grote Taalmodellen (2018-heden)
Transformer-architectuur (2017)
Google's introductie van de Transformer-architectuur in 2017 legde de basis voor een nieuwe generatie taalmodellen. Deze architectuur maakte gebruik van een "aandachtsmechanisme" dat veel effectiever was in het modelleren van langetermijnafhankelijkheden in tekst.
GPT-modellen (2018-heden)
OpenAI's reeks van Generative Pre-trained Transformer (GPT) modellen, beginnend met GPT in 2018, gevolgd door steeds krachtigere versies zoals GPT-2, GPT-3, en GPT-4, hebben de mogelijkheden van AI in natuurlijke taalverwerking dramatisch vergroot.
BERT, Claude, LLaMA (2018-heden)
Andere belangrijke taalmodellen zoals Google's BERT, Anthropic's Claude en Meta's LLaMA hebben de grenzen van wat mogelijk is met AI verder verlegd. Deze Large Language Models (LLM's) kunnen nu tekst genereren die nauwelijks te onderscheiden is van door mensen geschreven tekst, code schrijven, creatieve content produceren, en complexe vragen beantwoorden in meerdere talen.
Wat Brengt de Toekomst?
De evolutie van AI laat een patroon zien van cycli van optimisme en teleurstelling, maar de vooruitgang is onmiskenbaar. Tegenwoordig zien we een integratie van verschillende AI-technieken: multimodale systemen die tekst, beeld en geluid kunnen verwerken, LLM's als basis voor autonome agents, en de opkomst van Artificial General Intelligence (AGI) als onderzoeksdoel.
De focus verschuift ook naar verantwoorde AI, met toenemende aandacht voor ethiek, veiligheid, transparantie en governance. Vragen die de oude filosofen stelden over denken en bewustzijn zijn relevanter dan ooit, terwijl we nadenken over de implicaties van steeds krachtigere AI-systemen.
Van de misleidende Mechanische Turk tot de verbazingwekkende capaciteiten van moderne LLM's - de reis van AI is er een van ambitie, teleurstelling, doorbraken en ethische uitdagingen. Wat de toekomst ook brengt, het is duidelijk dat AI een van de meest transformerende technologieën van onze tijd zal blijven.
Over dit blog
Bij het schrijven van deze blogpost heb ik mij inhoudelijk laten assisteren door Claude, een AI-taalmodel ontwikkeld door Anthropic - zelf een product van de AI-evolutie die ik in dit artikel beschrijf.
Reactie schrijven