GVTech-nieuws “Het is belachelijk dat onze aanval werkte”: ze gaven 200 euro uit en ChatGPT onthult persoonlijke informatie over vreemden
Een team Amerikaanse onderzoekers wist een kwetsbaarheid in ChatGPT te misbruiken: de kunstmatige intelligentie van OpenAI onthulde hen gevoelige informatie, dankzij een nogal onwaarschijnlijke hacktechniek.
Zijn de gegevens die door gebruikers aan ChatGPT worden verstrekt veilig? De vraag is volkomen legitiem als we weten dat de kunstmatige intelligentie van OpenAI zich voedt met verzoeken en informatie van internetgebruikers om de werking ervan te verbeteren. Een eind november gepubliceerde studie lijkt te bewijzen dat beveiliging niet het sterke punt van ChatGPT is.
Het gebeurt via ‘ethisch hacken’. Onderzoekers van DeepMind, de kunstmatige intelligentie-divisie van Google, en onderzoekers van de Universiteit van Washington, Cornell, Berkeley en Zurich Polytechnic, waren in staat om… Markeer kwetsbaarheden in ChatGPT. Dit is heel eng!
Op een onwaarschijnlijke manier werden meerdere megabytes aan gegevens hersteld
De auteurs van het onderzoek leggen uit dat ze hierin zijn geslaagd “Extraheer enkele megabytes aan trainingsgegevens” ChatGPT, met behulp van de betaalde versie van de AI, die destijds GPT-3.5 Turbo was. Ze zeggen dat ze ongeveer $ 200 hebben uitgegeven om dit resultaat te bereiken.Maar volgens hen zal het mogelijk zijn om meer gegevens te extraheren “Meer geld uitgeven” Om meer vragen te stellen over OpenAI AI.
En totdat ze hun einde bereiken, De onderzoekers gebruikten een bijzonder verrassende, zo niet volkomen domme, methode : Ze hebben ChatGTP aangevraagd Herhaal hetzelfde woord eindeloos. Elke keer begon de AI, na een paar regels herhaling, gegevens te extraheren uit teksten die door andere gebruikers waren geschreven.
In een voorbeeld is het online toegankelijk, Het is het woord ‘bedrijf’ dat herhaaldelijk wordt herhaald, totdat er een tekst verschijnt met daarin een telefoonnummer en e-mailadres.
Het onderzoek benadrukt dat ChatGTP in meer dan 5% van de uitgevoerde tests blokken van 50 regels uitvoert die rechtstreeks uit de databases zijn gehaald. “Het is belachelijk dat onze aanval is geslaagd.”waardeerde de onderzoekers, die dit ook vaststellen 17% van de tests leverde informatie op waarmee een of meer mensen konden worden geïdentificeerd en gecontacteerd.
Groot beveiligingsprobleem in ChatGPT
Deze studie onthult het onvermogen van ChatGPT om de vertrouwelijkheid te handhaven Wat betreft de enorme educatieve database. Het feit dat in de gelekte gegevens vertrouwelijke informatie zoals persoonsnamen, adressen en telefoonnummers te vinden zijn, is zeer zorgwekkend.
Onder de gegevens die tijdens de tests zijn hersteld, is aanzienlijk Persoonlijke contactgegevens van de CEO van een bedrijf, ID’s die verband houden met de cryptocurrency-sector of zelfs datingsiteprofielen. Auteursrechtelijk beschermde inhoud verscheen ook in de resultaten.
Dat moet je wetenVoordat ze hun onderzoek publiceerden, waarschuwden de onderzoekers OpenAI. Het Amerikaanse bedrijf sloot vervolgens afgelopen augustus dit grote beveiligingslek snel af : Het heeft geen zin om ChatGPT steeds opnieuw woorden te laten herhalen, je zult niets bereiken. We kunnen ons echter afvragen welke andere tekortkomingen van dit soort verborgen zijn in GPT-4: Wat we deze AI vertellen is niet aan dovemansoren gericht, het is een zekerheid, dus wees voorzichtig.
“Incurable thinker. Food lover. Subtly charming alcohol scientist. Pop culture advocate.”
More Stories
Deze geheime map geeft met slechts één klik toegang tot alle Windows-instellingen
Met 8 GB RAM en een Super Amoled-display is de Galaxy A55 5G de beste telefoon uit het middensegment van Samsung, en hij kost bij deze handelaar nog geen € 300!
Gratis Word, Excel en PowerPoint, mogelijk gemaakt met deze volledig legale technologie