Inleiding
Artifical Intelligence, we worden met het woord om de oren geslagen, iedereen heeft er de mond van vol en elk bedrijf moet AI in zijn werk integreren, of dat nu zinvol is of niet. Wat denk ik daar nu zelf van? Hieronder mijn eerlijke eigen mening (anno oktober 2025)
AI = machine learning
AI, of vroeger “machine learning” genoemd, bestaat al lang. Ik herinner me al lang geleden dat er voor specifieke doelen machine learning werd toegepast, het creëren van een “neuraal netwerk”, om specifieke doelen te bereiken. Hierbij geef je de computer geen specifieke instructies meer van het principe “als dit gebeurt, dan moet je dat ermee doen” maar geef je de computer een hele reeks voorbeelden van situaties of toepassingen zodat die hiermee aan de slag kan en zelf kan berekenen wat het resultaat moet zijn, zonder te kunnen verklaren hoe hij tot deze conclusie kwam… en bijgevolg zonder ons de kans te geven te controleren of dit dan ook wel klopt! En net daarin zit voor mij het gevaar want ik controleer de zaken graag eens, zodat ik weet waarop ik me baseer om een idee of mening te vormen.
Waarvoor wel? Waarvoor niet?
Nu vind ik het toepassen van machine learning of AI voor specifieke doelen nog steeds heel relevant, op basis van een duidelijk afgelijnde scope en met een duidelijk controleerbare kennis-input zal het systeem gewoon verder gaan en het logische gevolg genereren. Omdat deze input controleerbaar is, durf ik vertrouwen dat de output ook vrij goed zal zijn, maar dan kwamen daar onze vrienden van OpenAI. Op basis van “alles wat ze op internet konden vinden” hebben ze een taalmodel gebouwd (want al deze “kennis” is nog steeds gebaseerd op woorden waarvan de computer totaal niet weet wat ze precies betekenen) en wat je ook vraagt, het systeem zal wel een antwoord bedenken. Bedenken, wat dus wil zeggen dat hij ook zonder de juiste gegevens wel iets zal produceren of dat hij dingen aan elkaar plakt die helemaal niet samen horen, om toch maar een antwoord te genereren… het zogenaamde “ghosting”. En waar dit voor het verzinnen van een gedicht over een bepaald onderwerp heel leuke en originele resultaten oplevert, is dit voor het weergeven van feiten natuurlijk minder ideaal. Als wetenschapsadept (waar kennis gebaseerd is op ervaring, testing en controle), vind ik dit echt geen goede evolutie. Daarbij komt dat Google door OpenAI op snelheid gepakt is, waardoor zij inderhaast hun model (met dezelfde gebreken) hebben live gezet, met alle gevolgen van dien. Google is dé bron van info voor de overgrote meerderheid van onze bevolking en ze geven standaard bovenaan AI-resultaten weer, dus denkt iedereen dat dit correct is. Weinigen zullen de antwoorden verifiëren (zelfs al worden er bronnen weergegeven) want Google zal het toch wel weten, niet? Zelf probeer ik vaak de antwoorden te verifiëren via de bijhorende links en helaas kom ik in meer dan de helft van de gevallen tot de conclusie dat het antwoord dus niet (helemaal) klopt. Toen ik vroeg welke restaurants vegetarische gerechten serveerden, dan kreeg ik een veelbelovende lijst van restaurants maar de meeste serveerden helemaal niet wat er werd beweerd en er werden zelfs restaurants weergegeven die niet bestonden, typisch ghosting dus want taalkundig leek alles in orde!
Het gevolg is dat heel veel mensen halve waarheden aannemen en waar dit voor het opzoeken van een restaurant vooral vervelend is, kan dit voor belangrijke onderwerpen wel problematisch zijn. Dokters hebben nu al het probleem dat mensen Dr. Google geraadpleegd hebben en zo denken het antwoord al te kennen, maar als die dan ook nog eens ziektes zal toekennen op basis van taal, zonder wetenschappelijke basis (want bepaalde symptomen komen bij heel veel ziektes voor), dan kan het wel eens gevaarlijk worden. Wekelijks hoor ik mensen de uitspraak doen “ChatGPT heeft me gezegd dat…”, helaas zonder hierbij te horen “en ik heb het opgezocht en het leek te kloppen”, mensen gaan makkelijkheidshalve de vraag stellen en het antwoord voor waar aannemen, zowel in ChatGPT als in Google. Agentic AI is de volgende heilige graal want dan moeten we zelf ook niets meer doen met de resultaten van de vraag, de computer zal het nodige wel uitvoeren. Of we allemaal zo tevreden zullen zijn met het hotel dat AI dan voor ons geboekt heeft is maar de vraag, in ieder geval kan iedereen zich dan verbergen achter AI want ze hebben die stommiteit zelf niet begaan, het was de computer…
Ik denk soms nostalgisch terug aan de tijd dat we nog moesten zoeken in verschillende artikels of op meerdere websites om het antwoord te vinden. Veel lastiger en tijdrovender, helemaal mee eens, maar de bron van de info was meteen een graadmeter van de betrouwbaarheid van het resultaat!
Waar gaat dat eindigen?
Momenteel zitten we nog in een “race to the top”, iedereen wil zoveel mogelijk nieuwe AI-zaken uitbrengen, nieuwe modellen lanceren (of die nu goed werken of niet, dat maakt niet uit), om het meest. Persoonlijk denk ik (of moet ik zeggen “hoop ik”) echter dat de vele problemen, onnauwkeurigheden, ghosting etc zullen leiden tot ontevreden gebruikers en dat het streven naar de hoogste kwantiteit zal worden vervangen door de hoogste kwaliteit. Nieuwe AI-systemen die de graad van nauwkeurigheid als een factor beschouwen en die eventueel zeggen “ik weet het antwoord niet, maar kom binnenkort eens terug want wellicht heb ik dan wél meer data om deze vraag te beantwoorden”. Of wie weet, komt er een AI-systeem dat met je vraag op zoek gaat naar specifieke, betrouwbare bronnen, om zo een gefundeerd antwoord te vormen? Een mens mag toch al eens dromen, hé?














