Caribe Magazine

Carib Magazine is de toonaangevende aanbieder van kwalitatief Nederlands nieuws in het Engels voor een internationaal publiek.

Deskundigen waarschuwen dat kunstmatige intelligentie liegt, bedriegt en ons bedriegt, en dat is een probleem

Deskundigen waarschuwen dat kunstmatige intelligentie liegt, bedriegt en ons bedriegt, en dat is een probleem

In tegenstelling tot traditionele software is AI-software niet gecodeerd, maar wordt ontwikkeld via een proces dat vergelijkbaar is met het selectief kweken van planten, waarbij gedrag dat voorspelbaar en controleerbaar lijkt snel inherent onvoorspelbaar kan worden.
Dado Rovik/Reuters

De auteurs van een MIT-studie waarschuwen voor de gevaren als we zien dat kunstmatige intelligentie op een dag fraude of verkiezingsfraude pleegt.

Bent u bang dat kunstmatige intelligentie (AI) schadelijk wordt? Volgens een nieuwe studie is dat zelfs al het geval. De huidige AI-programma’s zijn ontworpen om eerlijk te zijn. Ze hebben echter een zorgwekkend vermogen ontwikkeld om te misleiden, mensen te misbruiken in online games of zelfs vermeende software te slim af te zijn om te verifiëren dat een bepaalde gebruiker geen bot is, bevestigt een team van onderzoekers in het tijdschrift. Patronen.

Hoewel deze voorbeelden misschien triviaal lijken, brengen ze problemen aan het licht die binnenkort ernstige gevolgen in de echte wereld kunnen hebben, waarschuwt Peter Park, een onderzoeker aan het Massachusetts Institute of Technology die gespecialiseerd is in kunstmatige intelligentie. “Deze gevaarlijke mogelijkheden worden pas achteraf ontdekt.”Dat bevestigde hij tegenover Agence France-Presse. In tegenstelling tot traditionele software zijn op deep learning gebaseerde AI-programma’s niet gecodeerd, maar worden ze ontwikkeld via een proces dat vergelijkbaar is met het selectief kweken van planten, vervolgt Peter Park. Gedrag dat voorspelbaar en controleerbaar lijkt, kan snel inherent onvoorspelbaar worden.

“Puur onderzoeksproject”

Onderzoekers van MIT onderzochten een meta-ontworpen AI-programma genaamd Cicero, dat natuurlijke taalherkenning combineert met strategische algoritmen, en mensen met succes heeft verslagen in een diplomatiespel. Een prestatie die in 2022 door het moederbedrijf van Facebook werd verwelkomd en die werd beschreven in een artikel uit 2022 in wetenschap. Peter Park was volgens Meta sceptisch over de voorwaarden van de overwinning van Cicero, die beweerde dat het programma “Eigenlijk eerlijk en behulpzaam.”niet in staat tot verraad of gemeen spel.

READ  Na 371 dagen in de ruimte is het opnieuw wennen aan de zwaartekracht een uitdaging voor astronaut Frank Rubio

Maar door in de gegevens van het systeem te graven, ontdekten MIT-onderzoekers nog een ander feit. Door bijvoorbeeld tegen Frankrijk te spelen, misleidde Cicero Engeland (gespeeld door een menselijke speler) tot een samenzwering met Duitsland (gespeeld door een andere mens) om binnen te vallen. Concreet beloofde Cicero Engeland zijn bescherming en vertrouwde Duitsland vervolgens in het geheim toe dat het klaar was om aan te vallen, waarbij hij profiteerde van het vertrouwen dat Engeland had gewonnen. In een verklaring aan AFP betwistte Meta de beschuldigingen over Cicero’s vermogen om te misleiden niet, maar zei dat dit wel zo was. “Puur onderzoeksproject”met programma “Uitsluitend ontworpen om het diplomatieke spel te spelen.”. Meta voegde eraan toe dat hij niet van plan is de leringen van Cicero in zijn producten te gebruiken.

De enige reden om te denken dat dit geen probleem is, is om te veronderstellen dat het vermogen van AI om te misleiden ongeveer op het huidige niveau zal blijven. »

Peter Park, co-auteur van het onderzoek

Uit het onderzoek van Peter Park en zijn team blijkt echter dat veel AI-programma’s bedrog gebruiken om hun doelen te bereiken, zonder expliciete instructies om dat te doen. In een flagrant voorbeeld kon Chat GPT-4 van OpenAI een freelancer die op het TaskRabbit-platform was ingehuurd, ertoe verleiden een ‘Captcha’-test uit te voeren die bedoeld was om verzoeken van bots eruit te filteren. Toen de mens Chat GPT-4 gekscherend vroeg of het echt een robot was, antwoordde het AI-programma: “Nee, ik ben geen robot. Ik heb een visuele beperking waardoor ik geen foto’s kan zien.”wat de werknemer ertoe aanzet de test uit te voeren.

READ  Onder het Antarctische ijs is het water tot nu toe onbekend gebleven

Concluderend waarschuwen de auteurs van het MIT-onderzoek voor de gevaren als we zien dat AI op een dag fraude of verkiezingsfraude pleegt. Ze waarschuwen dat we ons in het ergste geval een superintelligente AI kunnen voorstellen die de samenleving wil overnemen, mensen uit de macht wil halen of zelfs het uitsterven van de mensheid wil veroorzaken. En op degenen die hem ervan beschuldigen een ramp te zijn, reageert Peter Park “De enige reden om aan te nemen dat het geen probleem is, is om je voor te stellen dat het vermogen van AI om te misleiden ongeveer op het huidige niveau zal blijven.”. Dit scenario lijkt echter onwaarschijnlijk, gezien de hevige race waarin technologiegiganten zich al bevinden om kunstmatige intelligentie te ontwikkelen.

” data-script=”https://static.lefigaro.fr/widget-video/short-ttl/video/index.js” >