Caribe Magazine

Carib Magazine is de toonaangevende aanbieder van kwalitatief Nederlands nieuws in het Engels voor een internationaal publiek.

Math verzet zich nog steeds tegen ChatGPT en AI

Math verzet zich nog steeds tegen ChatGPT en AI

Sam Altman, het charismatische hoofd van OpenAI, zou de woede van het bestuur hebben gewekt omdat de directeur voor hem zou verbergen dat het algoritme achter ChatGPT berekeningen zou kunnen uitvoeren. Het gerucht is nog niet bevestigd, maar het herinnert ons eraan dat tot nu toe alle AI-systemen struikelen over wiskunde.

Wat als de wiskunde verkeerd is? Sinds 22 november bevindt de discipline zich in het middelpunt van het psychodrama rond de echte en valse ontslagen van Sam Altman, CEO van OpenAI, die ChatGPT ontwikkelde.

De afgezette president werd op dinsdag 21 november in zijn functie hersteld, na een confrontatie tussen enkele medewerkers en de raad van bestuur. Laatstgenoemde moest het opgeven nadat hij de heer ChatGPT een week geleden bedankte, zonder een exacte uitleg te geven.

Mysterieuze vraag*

Hij zei dat het eerste ontslag van Sam Altman feitelijk gedeeltelijk was ingegeven door een brief van bezorgde werknemers. Reuters, woensdag 22 november. Ze waarschuwden de bestuursleden voor de vindingrijkheid van een intern algoritme dat, binnen een geheim project genaamd Q*, een drempel zou hebben overschreden die als ‘alarmerend’ wordt omschreven. elk ? GPT had erin kunnen slagen… wiskundeproblemen op elementair niveau op te lossen.

Het was niet mogelijk om het bestaan ​​van dit bericht, dat ook werd vermeld op de website ‘Information’, officieel te bevestigen, en Reuters geeft toe het beroemde bericht niet te hebben gezien. andere media, Zoals de website “The Verge”.beweren dat deze geruchten over het met wiskunde doordrenkte ChatGPT weinig basis hebben en dat het bestuur beweert dat ze nooit een brief hebben ontvangen waarin de risico’s van het Q*-project worden verhoogd.

Als de vraag van het bericht dubbelzinnig blijft, onthult de inhoud een waarheid die vaak over het hoofd wordt gezien: ChatGPT en AI in het algemeen zijn tot nu toe slecht in wiskunde. Slechtst: Dat zeggen onderzoekers van Stanford University en Californiëkunnen de nieuwste versies van OpenAI’s populaire chatbot een aantal wiskundige problemen minder goed aan dan eerdere versies.

READ  Op aarde zou zich opnieuw een supercontinent kunnen vormen

Dit feit lijkt misschien verrassend. Kunstmatige intelligentie, deze rekenmonsters, moeten nu al korte metten maken met de wiskunde. Veel ChatGPT-gebruikers zijn ook verrast door de beperkingen van deze tool sinds de lancering in december 2022. “Ik vroeg hem: als vijf machines vijf objecten in vijf minuten produceren, hoe lang zou het dan duren voordat 100 machines 100 objecten produceren.” Hij vertelde me 100 minuten, dit is niet waar! Internetgebruiker heeft spijt In een forum gewijd aan kunstmatige intelligentie. Het antwoord op deze vraag, die fundamenteel is voor een wiskundige, is vijf.

“Wiskunde en rekenen zijn niet precies hetzelfde”, zegt Vincent Corupel, onderzoeker bij LIP 6 (Laboratorium voor Computerwetenschappen in Parijs 6). Het feit dat een model als ChatGPT indruk maakt met zijn vermogen om met gewone mensen te chatten, betekent niet dat het ook wiskunde als een mens kan ‘begrijpen’. “Het is voor ons bijvoorbeeld gemakkelijk om een ​​driehoek in een afbeelding te herkennen, terwijl dat voor een machine moeilijker is”, zegt Nicolas Sabouret, hoogleraar informatica en specialist in kunstmatige intelligentie aan de Universiteit van Paris-Saclay.

Wiskunde is niet (slechts) rekenen

De belangrijkste reden voor de gevoeligheid voor de wiskunde van GPT – waarvan het acroniem staat voor ‘generative pre-trained transformer’ of ‘generative pre-trained transformer’ in het Frans – is dat het er niet voor is geprogrammeerd. “Het is ontworpen om taal te genereren door het volgende woord in een bepaalde zin te selecteren”, legt Tom Lennaerts uit, professor aan de Université Libre de Bruxelles en voorzitter van de Benelux Association for Artificial Intelligence.

Met andere woorden, ChatGPT en andere grote taalmodellen (LLM’s) gebruiken hun rekenkracht om waarschijnlijkheden te genereren en te bepalen welke woorden ze moeten kiezen uit hun enorme database (het hele web in het geval van ChatGPT) en zo een zin te construeren die logisch is.

READ  Astronomische winter begint vrijdag: welke invloed kan dit fenomeen op u hebben?

Deze statistische benadering zorgt er ook voor dat deze “robots” berekeningen kunnen uitvoeren, net zoals de heer Jordan dat doet in proza: zonder dat hij het weet. Ze zullen er geen probleem mee hebben om te antwoorden dat “2 + 2” gelijk is aan 4. Maar door in de grot van Alibaba’s gegevens en geschriften te duiken die online zijn verzameld, zullen deze algoritmen ontdekken dat de meest waarschijnlijke reeks van de reeks cijfers en tekens “2” + is. 2 = “Het is nummer 4.

Dit betekent niet dat deze AI-systemen de logica van deze toevoeging ‘begrijpen’. “Wiskunde bestaat uit leren denken, en kunstmatige intelligentie is alleen maar rekenen. Het is heel moeilijk om logisch denken te reproduceren met alleen maar rekenen. In het beste geval zullen deze machines erin slagen het te imiteren”, legt Nicolas Sabouret uit.

Dit is geen nieuw probleem. Vincent Koropel beweert dat de logicatheoreticus, een van de eerste kunstmatige-intelligentieprogramma’s die in de jaren vijftig werd ontwikkeld, ‘geprogrammeerd was om te denken als een wiskundige’. Dit model, dat niet probeerde tekst te creëren, maar te denken als een mens, ‘toonde al snel zijn beperkingen’, zoals de LIP 6-expert het uitdrukte.

In de loop van de tijd is de wiskunde een van de laatste bolwerken geworden die zich nog steeds verzetten tegen kunstmatige intelligentie. Sinds “kunstmatige intelligentie erin is geslaagd mensen te vervangen in spellen als schaken en Go, lijkt beheersing van de wiskunde een van de belangrijkste obstakels die moeten worden overwonnen”, meent Vincent Koropel.

Maar Tom Leinarts zegt: “Zonder significante nieuwe ontwikkelingen in de manier waarop we grote taalmodellen ontwerpen, zullen ze niet in staat zijn wiskunde te doen, omdat ze niet aan gevolgtrekkingen doen.”

Het spectrum van kunstmatige algemene intelligentie

Vandaar de twijfels geuit door experts geïnterviewd door FRANKRIJK 24 over de geruchten over Q* en zijn kunstmatige intelligentie die in staat is tot wiskundig denken. “Een taalmodel is een machine die werkt op basis van waarschijnlijkheid en geen rekening houdt met de concepten ‘waar’ of ‘fout’, die fundamenteel zijn voor de wiskunde”, legt Nicolas Sabouret uit.

READ  China stuurt zijn jongste bemanning van astronauten de ruimte in

Als een groot taalmodel deze drempel kan overschrijden, “zou dat een behoorlijke theoretische doorbraak zijn”, zegt Andrew Rogowski, een expert op het gebied van kunstmatige intelligentie aan de Universiteit van Surrey, in The Guardian.

Reuters en The Information, die het bestaan ​​van de brief melden, bevestigen dat de auteurs van deze brief de vindingrijkheid van Q* ‘verontrustend’ vinden. In feite zou het vermogen om de berekeningen uit te voeren het algoritme meer doen lijken op ‘kunstmatige algemene intelligentie’, schreef Reuters.

Het concept van super-AI verwijst naar “kunstmatige intelligentie die elk probleem kan aanpakken”, legt Nicolas Sabouret uit. “Het is ook ‘machine versus mens'”, voegt Vincent Koropel toe. Met andere woorden: elke keer dat deze algoritmen inbreuk maken op wat tot nu toe het persoonlijke territorium van de mensheid is geweest, wordt het spook van de kunstmatige algemene intelligentie duidelijker.

In die zin zou “weten hoe om te gaan met wiskundig redeneren al een stap zijn in de richting van algemene kunstmatige intelligentie”, stelt Tom Lennaerts. Het is genoeg om sommige mensen het koude zweet te laten uitbreken, vooral binnen OpenIA. Sam Altman definieert deze ‘superintelligentie’ als ‘een autonoom systeem met het vermogen om beter te presteren dan mensen bij vrijwel alle economisch nuttige taken.’

Maar voor Nicolas Sabouret zijn we daar nog ver van verwijderd. Zelfs als kunstmatige intelligentie berekeningen zou kunnen uitvoeren, zou dat ‘het niet meer autonomie geven of gevaarlijker maken’, en dus in staat zijn mensen te vervangen.