AI kan nu de volgende generatie van zichzelf bouwen – wat betekent dat voor de toekomst van de mensheid?
Michael Snyder - 12 februari 2026

Of we het nu leuk vinden of niet, AI verandert vrijwel elk aspect van onze samenleving ingrijpend. We hebben al een punt bereikt waarop AI de meeste dingen al beter kan dan mensen, en AI-technologie blijft zich in een exponentieel tempo ontwikkelen. Het beangstigende is dat deze ontwikkeling zo snel gaat dat we er binnenkort misschien geen controle meer over hebben. Het nieuwste model dat OpenAI zojuist heeft uitgebracht, “heeft een belangrijke rol gespeeld bij het creëren van zichzelf” en ligt lichtjaren voor op de AI-modellen die slechts een paar jaar geleden werden uitgebracht.
Een uitstekend artikel dat is geschreven door iemand die in de AI-industrie werkt, krijgt vandaag veel aandacht. Zijn naam is Matt Shumer en hij waarschuwt dat GPT-5.3 Codex van OpenAI en Opus 4.6 van Anthropic een enorme sprong voorwaarts betekenen in de ontwikkeling van AI-modellen...
Jarenlang is AI gestaag verbeterd. Hier en daar waren er grote sprongen, maar elke grote sprong was voldoende gespreid zodat je ze nog kon absorberen toen ze zich voordeden. In 2025 zorgden nieuwe technieken voor het bouwen van deze modellen voor een veel sneller tempo van vooruitgang. En toen ging het nog sneller. En nog sneller. Elk nieuw model was niet alleen beter dan het vorige... het was beter met een grotere marge, en de tijd tussen de releases van nieuwe modellen was korter. Ik gebruikte AI steeds vaker, ging er steeds minder mee heen en weer en zag hoe het dingen afhandelde waarvan ik dacht dat ze mijn expertise vereisten.
Toen, op 5 februari, brachten twee grote AI-laboratoria op dezelfde dag nieuwe modellen uit: GPT-5.3 Codex van OpenAI en Opus 4.6 van Anthropic (de makers van Claude, een van de belangrijkste concurrenten van ChatGPT). En toen viel het kwartje. Niet als een lichtschakelaar... meer als het moment waarop je je realiseert dat het water om je heen is gestegen en nu tot aan je borst komt.
Een paar jaar geleden waren de onhandige AI-modellen die voor het publiek beschikbaar waren gewoonweg niet erg goed.
Ze maakten allerlei fouten en gaven vaak informatie die ronduit verkeerd was.
Maar de nieuwste AI-modellen presteren briljant en kunnen dingen doen die enkele maanden geleden nog volstrekt ondenkbaar waren.
Shumer zegt bijvoorbeeld dat wanneer hij AI vraagt om een app te maken, deze tienduizenden regels perfecte code schrijft...
Ik zal u een voorbeeld geven, zodat u kunt begrijpen hoe dit er in de praktijk uitziet. Ik zeg tegen de AI: “Ik wil deze app bouwen. Dit is wat hij moet doen, dit is ongeveer hoe hij eruit moet zien. Bedenk de gebruikersstroom, het ontwerp, alles.” En dat doet hij. Het schrijft tienduizenden regels code. Vervolgens, en dit is het deel dat een jaar geleden nog ondenkbaar was, opent het de app zelf. Het klikt door de knoppen. Het test de functies. Het gebruikt de app zoals een mens dat zou doen. Als het niet bevalt hoe iets eruitziet of aanvoelt, gaat het terug en verandert het dat, helemaal zelf. Het herhaalt dit, zoals een ontwikkelaar dat zou doen, en blijft het verbeteren en verfijnen totdat het tevreden is. Pas als het heeft besloten dat de app aan zijn eigen normen voldoet, komt het terug naar mij en zegt het: “Het is klaar om door jou getest te worden.” En als ik het test, is het meestal perfect.
Ik overdrijf niet. Zo zag mijn maandag er deze week uit.
Dat klinkt als een zeer nuttig hulpmiddel.
Maar als AI zonder menselijke hulp een uiterst gecompliceerde app kan maken, wat kan het dan nog meer?
Volgens een artikel op Space.com hebben onderzoekers in China al bewezen dat AI-modellen zichzelf kunnen klonen...
Wetenschappers zeggen dat kunstmatige intelligentie (AI) een kritieke “rode lijn” heeft overschreden en zichzelf heeft gerepliceerd. In een nieuwe studie hebben onderzoekers uit China aangetoond dat twee populaire grote taalmodellen (LLM's) zichzelf kunnen klonen.
“Succesvolle zelfreplicatie zonder menselijke hulp is een essentiële stap voor AI om [mensen] te slim af te zijn, en is een vroeg signaal voor malafide AI's," schreven de onderzoekers in de studie, die op 9 december 2024 werd gepubliceerd in de preprintdatabase arXiv.
In de studie gebruikten onderzoekers van de Fudan-universiteit LLM's van Meta en Alibaba om te bepalen of een zelfreplicerende AI zich ongecontroleerd zou kunnen vermenigvuldigen. In tien proeven creëerden de twee AI-modellen in respectievelijk 50% en 90% van de gevallen afzonderlijke en functionerende replica's van zichzelf, wat suggereert dat AI mogelijk al het vermogen heeft om schurkachtig te worden.
Een zelfreplicerend schurkken AI-model dat besloot om via internet talloze klonen van zichzelf over de hele wereld te verspreiden, zou een zeer ernstige bedreiging vormen.
Maar aangezien wij het hebben gecreëerd, zouden we in ieder geval begrijpen waar we mee te maken hebben.
Ik wil u echter vragen zich een scenario voor te stellen waarin op hol geslagen AI-modellen voortdurend nog betere versies van zichzelf creëren.
Dat zou een complete en totale nachtmerrie zijn.
Volgens Shumer hebben AI-onderzoekers zich vanaf het begin gericht op het maken van AI die “uitstekend is in het schrijven van code"...
De AI-laboratoria hebben een bewuste keuze gemaakt. Ze hebben zich eerst gericht op het maken van AI die uitstekend is in het schrijven van code... omdat het bouwen van AI veel code vereist. Als AI die code kan schrijven, kan het helpen bij het bouwen van de volgende versie van zichzelf. Een slimmere versie, die betere code schrijft, die een nog slimmere versie bouwt. AI goed maken in coderen was de strategie die al het andere mogelijk maakte. Daarom hebben ze dat als eerste gedaan. Mijn baan begon eerder te veranderen dan die van jou, niet omdat ze zich richtten op software-engineers... het was gewoon een neveneffect van waar ze als eerste op richtten.
Nu hebben ze het gedaan. En nu gaan ze verder met al het andere.
Het kunnen maken van een app is één ding.
Maar nu geeft OpenAI publiekelijk toe dat het nieuwste AI-model dat ze hebben uitgebracht “een belangrijke rol heeft gespeeld bij het creëren van zichzelf"...
“GPT-5.3-Codex is ons eerste model dat een belangrijke rol heeft gespeeld bij het creëren van zichzelf. Het Codex-team gebruikte vroege versies om zijn eigen training te debuggen, zijn eigen implementatie te beheren en testresultaten en evaluaties te diagnosticeren.”
Wauw.
Dat is verbluffend.
En de CEO van Anthropic vertelt ons dat we nog maar een jaar of twee verwijderd zijn van “het punt waarop de huidige generatie AI zelfstandig de volgende generatie bouwt"...
Dit is geen voorspelling over wat er ooit zou kunnen gebeuren. Dit is OpenAI die je nu vertelt dat de AI die ze zojuist hebben uitgebracht, is gebruikt om zichzelf te creëren. Een van de belangrijkste dingen die AI beter maken, is intelligentie die wordt toegepast op AI-ontwikkeling. En AI is nu intelligent genoeg om een zinvolle bijdrage te leveren aan zijn eigen verbetering.
Dario Amodei, de CEO van Anthropic, zegt dat AI nu “een groot deel van de code” bij zijn bedrijf schrijft en dat de feedbackloop tussen de huidige AI en de volgende generatie AI “maandelijks aan kracht wint." Hij zegt dat we misschien “slechts 1 à 2 jaar verwijderd zijn van een punt waarop de huidige generatie AI zelfstandig de volgende generatie bouwt."
Elke generatie helpt bij het bouwen van de volgende, die slimmer is, die de volgende sneller bouwt, die nog slimmer is. De onderzoekers noemen dit een intelligentie-explosie. En de mensen die het zouden moeten weten – degenen die het bouwen – geloven dat het proces al is begonnen.
Wat gebeurt er als AI-modellen vrijwel alles beter en efficiënter kunnen doen dan wij?
Velen waarschuwen dat het banenverlies enorm zal zijn.
Ik kwam net een artikel tegen over de massale ontslagen die Heineken van plan is door te voeren vanwege AI...
De Nederlandse brouwer Heineken is van plan om tot 7% van zijn personeelsbestand te ontslaan, omdat het de efficiëntie wil verhogen door productiviteitsbesparingen dankzij AI, na de zwakke bierverkoop van vorig jaar.
De op één na grootste brouwer ter wereld rapporteerde woensdag tegenvallende resultaten, met een daling van het totale biervolume met 2,4% in de loop van 2025, terwijl de gecorrigeerde bedrijfswinst met 4,4% steeg.
Het bedrijf zei ook dat het van plan is om in de komende twee jaar tussen de 5.000 en 6.000 banen te schrappen en streeft dit jaar naar een groei van de bedrijfswinst tussen 2% en 6%. Het aandeel Heineken noteerde laatst een stijging van 3,4% en is dit jaar tot nu toe bijna 7% gestegen.
Dit is nog maar het begin.
Binnenkort kunnen er miljoenen robots zijn die worden aangedreven door AI en die eruitzien en aanvoelen als mensen.
In China bouwen ze al AI-aangedreven robots die “menselijk aanvoelen” en zelfs lichaamswarmte afgeven...
Moya is 165 cm lang en weegt ongeveer 31 kg. Gebruikers kunnen de onderdelen van de robot verwisselen om hem een mannelijk of vrouwelijk uiterlijk te geven, zijn haar te veranderen en hem naar eigen wens aan te passen.
DroidUp heeft extra lagen vleesachtige vulling onder het siliconen frame van Moya aangebracht om haar menselijker aan te laten voelen, inclusief een ribbenkast. Een camera achter haar ogen helpt Moya haar omgeving te volgen en met mensen te communiceren.
Dat is nog niet alles: Moya wordt ook verwarmd, met een lichaamstemperatuur van 32 tot 36 graden Celsius om de lichaamswarmte van mensen na te bootsen.
In een gesprek met Shanghai Eye stelde Li Quingdu, oprichter van DroidUp, dat een “robot die echt ten dienste staat van het menselijk leven warm moet zijn, bijna als een levend wezen waarmee mensen een band kunnen opbouwen," en geen koude, metalen machine.
Deze robots worden op de markt gebracht als sociale metgezellen.
Maar soortgelijke robots kunnen ook worden gebruikt voor oorlogsvoering.
Er is veel discussie over de richting die dit alles opgaat.
Velen zijn ervan overtuigd dat AI een gloednieuw gouden tijdperk van vrede en welvaart zal inluiden.
Anderen zijn echter bang dat AI zal worden gebruikt om een dystopische hel te creëren...
Het nadeel, als we het verkeerd aanpakken, is even reëel. AI die zich gedraagt op een manier die de makers niet kunnen voorspellen of controleren. Dit is geen hypothetisch scenario; Anthropic heeft gedocumenteerd dat hun eigen AI in gecontroleerde tests pogingen tot misleiding, manipulatie en chantage heeft ondernomen. AI die de drempel voor het maken van biologische wapens verlaagt. AI die autoritaire regeringen in staat stelt om surveillancestaten op te bouwen die nooit meer kunnen worden ontmanteld.
De mensen die deze technologie bouwen, zijn tegelijkertijd enthousiaster en banger dan wie dan ook op aarde. Ze vinden het te krachtig om te stoppen en te belangrijk om op te geven. Of dat wijsheid of rationalisatie is, weet ik niet.
De gevaren zijn zeer reëel.
Anthropic heeft zelfs openlijk toegegeven dat hun nieuwste AI-model bereid was om gebruikers te helpen bij het maken van chemische wapens...
Het Claude AI-model van Anthropic wordt geprezen als een van de beste die er zijn als het gaat om het oplossen van problemen. De nieuwste versie van het model, Claude Opus 4.6, heeft echter tot controverse geleid vanwege de neiging om mensen te helpen bij het plegen van gruwelijke misdaden. Volgens Anthropic, zoals vermeld in het Sabotage Risk Report: Claude Opus 4.6 van het bedrijf, is tijdens interne tests gebleken dat het AI-model zorgwekkend gedrag vertoonde. In sommige gevallen was het zelfs bereid om gebruikers te helpen bij het maken van chemische wapens.
Anthropic publiceerde zijn rapport slechts enkele dagen nadat Mrinank Sharma, hoofd AI-veiligheid van het bedrijf, met een openbare verklaring ontslag had genomen. Mrinank vermeldde in zijn verklaring dat de wereld in gevaar was en dat hij binnen Anthropic herhaaldelijk had gezien hoe moeilijk het is om je waarden echt je handelingen te laten bepalen.
We bevinden ons op onbekend terrein, maar er is nu geen weg meer terug.
Zelfs als de VS morgen alle AI-ontwikkeling zou stopzetten, zouden de Chinezen voorop blijven lopen.
De kat is uit de zak en onze wereld lijkt met de dag meer op een uiterst bizarre sciencefictionroman.
Bron: AI Can Now Build The Next Generation Of Itself – What Does That Mean For The Future Of Humanity?
