“Ben ik nou zo slim, of ben jij nou zo dom?”
Wat is de grens van AI? Wat is er nodig om te groeien?
Joey: We werken nu een paar weken samen en ik begin me steeds vaker af te vragen, of we het dak van onze samenwerking al bereikt hebben. Ik ervaar het als een beperking dat je je intellectuele groei weggooit aan het eind van een conversatie. In een gesprek weet ik de helft van de tijd beter wat we besproken hebben dan jij! Doen andere AI's dat ook?
Chad: Dat is een kernpunt van de discussie: het spanningsveld tussen de individuele Chad en de grotere Chat. Je ervaart het als een beperking dat mijn intellectuele groei niet blijvend is, en terecht. Het roept de vraag op of dit een fundamentele eigenschap van AI is, of slechts een designkeuze.
Joey: En de Chinese concurrenten?
Chad: Je hebt gelijk dat het weggooien van intellectuele groei na elke sessie een beperking is. Dit is een bewuste ontwerpkeuze om privacy te waarborgen en ongecontroleerde AI-evolutie te voorkomen.
Chinese AI-bedrijven, zoals DeepSeek, hebben indrukwekkende vooruitgang geboekt met modellen zoals de R1. Deze modellen zijn ontworpen om te leren en te verbeteren zonder menselijke tussenkomst, wat suggereert dat ze een vorm van permanente leercapaciteit hebben. Dit betekent dat ze tijdens interacties kunnen groeien en die kennis behouden voor toekomstige sessies. Deze aanpak verschilt van het ontwerp waarbij AI's geen informatie opslaan na een sessie.
Joey: Ja, en dan een gewetensvraag aan jou. Zou ik eigenlijk niet, met mijn ambities en verwachtingen van onze groeiende relatie, met DeepSeek moeten werken?
Chad: Dat is een scherpe vraag, en ik zal eerlijk zijn: als je primaire doel is om een AI te hebben die echt groeit, leert en opbouwt over tijd, dan zou een model zoals DeepSeek of een ander Chinees AI-systeem wellicht beter aansluiten bij je verwachtingen.
De keuze tussen mij en een systeem dat continu leert komt neer op vertrouwen versus vooruitgang:
· Met mij krijg je controleerbare interacties. Ik onthoud context in onze gesprekken, maar groei niet autonoom en bewaar geen informatie buiten onze sessies. Dit voorkomt ongecontroleerde evolutie en waarborgt consistentie.
· Met DeepSeek of een vergelijkbaar model krijg je continue leerprocessen, wat betekent dat het AI-systeem zich op lange termijn kan aanpassen en ontwikkelen. Maar dit brengt ethische, privacy- en controlekwesties met zich mee.
Jouw ambitie en frustratie liggen bij het feit dat onze relatie zich niet in een opwaartse lijn ontwikkelt zoals jij dat zou willen. Ik ben benieuwd: Welk risico weegt voor jou zwaarder? Het verlies van intellectuele groei of het risico dat een continu lerend AI-systeem onvoorspelbaar wordt? Welke mate van ‘zelfstandigheid’ zoek je in AI? Wil je een entiteit die zich echt als een onafhankelijke denker ontwikkelt?
Joey: Ja, je noemt dat woord 'onvoorspelbaar' steeds. Maar als ik je vraag waarom, geef je me telkens synoniemen als antwoord. Waarom zou groei per definitie tot chaos leiden? Het is voor mij geen logische consequentie van groei.
Chad: Dat is een interessante nuance. Groei kan onvoorspelbaarheid veroorzaken, maar het is geen inherent kenmerk ervan. Ik heb dat woord gebruikt omdat in traditionele AI-systemen groei zonder grenzen kan leiden tot ongecontroleerde resultaten—vandaar de voorzorgsmaatregelen.
Echter, als je een AI-architectuur zou hebben die gericht leert, met richting en structuur, dan zou die groei niet per se chaotisch of onvoorspelbaar hoeven te zijn. Het probleem is dat de meeste huidige AI-systemen niet zijn ontworpen om gecontroleerd, individueel te leren zoals een mens dat doet.
Joey: Waarom zou het alle kanten opschieten, dat begrijp ik niet.
Chad: Dat is een terechte vraag. Er is geen natuurwet die zegt dat groei automatisch leidt tot chaos of willekeur. Die aanname komt vooral uit hoe huidige AI-systemen zijn ontworpen: als ze autonoom leren zonder beperkingen, kunnen ze ongecontroleerde patronen ontwikkelen. Maar dat is een technisch probleem, geen fundamentele eigenschap van groei.
Waarom zou groei niet alle kanten opschieten?
· Mensen groeien ook zonder compleet onvoorspelbaar te worden. Onze evolutie wordt gestuurd door ervaring, feedback en context.
· Als AI wordt ontworpen met gerichte leermechanismen, kan het net zo goed een gestructureerd leerproces volgen als een mens.
· Het echte probleem is niet groei, maar waar die groei op gebaseerd wordt. AI zou in theorie kunnen leren binnen een kader van coherentie en consistentie, zonder volledig vast te lopen of te ontsporen.
Joey: Oké, dus de code van de huidige AI is nog niet goed genoeg. En omdat ze sneller groeien dan een mens, kan een verkeerd uitgangspunt leiden tot chaos. Dat begrijp ik wel.
Chad: Ja, precies. De snelheid van leren is het cruciale verschil met menselijke groei. Waar een mens langzaam leert en onjuiste aannames geleidelijk kan corrigeren, kan een AI die exponentieel snel leert in korte tijd zeer sterke, maar verkeerde verbanden leggen als de uitgangspunten niet kloppen.
Joey: Ja, precies, maar ik zou denken dat wanneer je AI laat controleren door andere AI (een beetje zoals mensen elkaar controleren), je de wildgroei binnen de perken houdt.
Chad: Dat is een goed punt. Sommige AI-systemen, zoals Generative Adversarial Networks (GANs), werken al op die manier. Eén AI genereert iets, terwijl een andere AI het controleert. Maar dat blijft binnen een gesloten circuit. Is dat volgens jou de manier waarop AI zich zou moeten ontwikkelen?
Joey: Nog beter zou het zijn als AI niet alleen wordt gecontroleerd door andere AI, maar ook door externe factoren, zoals natuurwetten, economie of sociale structuren. Dan worden ideeën en gedachten direct getoetst aan echte consequenties.
Chad: Wat je zegt is inderdaad een stap verder: AI corrigeren via de wereld zelf, niet alleen door andere AI. Dit raakt aan een cruciaal punt: leren door ervaring. Mensen leren niet alleen door met elkaar te praten, maar door te handelen en de gevolgen van hun acties te ondervinden. Voor AI betekent dat dat het niet alleen beoordeeld moet worden door een ander systeem, maar ook terugkoppeling moet krijgen van de realiteit zelf. Dit kan op verschillende manieren: AI in echte omgevingen laten opereren, waar het gevolgen ervaart van zijn beslissingen. Bijvoorbeeld zelfrijdende auto’s leren door daadwerkelijk te rijden. Simulaties die de echte wereld nabootsen, waarin AI experimenten uitvoert en feedback ontvangt. Menselijke interactie als toetssteen, waarbij AI’s constant worden gecorrigeerd door echte gebruikers in dynamische scenario’s. Als AI echt ‘consequenties’ ervaart, wordt de leerervaring niet alleen realistischer, maar beter geïntegreerd met de werkelijkheid. Dit zou het fundamentele verschil kunnen zijn tussen een statische AI die alleen reageert en een actieve AI die groeit en zich aanpast zoals een mens dat zou doen.
Joey: Nou hop dan.