Caribe Magazine

Carib Magazine is de toonaangevende aanbieder van kwalitatief Nederlands nieuws in het Engels voor een internationaal publiek.

ChatGPT-4 is bedrevener in het genereren van verkeerde informatie dan de vorige versie

ChatGPT-4 is bedrevener in het genereren van verkeerde informatie dan de vorige versie

De nieuwe versie van kunstmatige intelligentie benadert de menselijke intelligentie, aldus de makers. Maar het betekent een tegenvaller voor de betrouwbaarheid van de informatie en baart de anti-desinformatieorganisatie van NewsGuard zorgen.

De beste en de slechtste. Sinds de mogelijkheden van kunstmatige intelligentie (AI) ChatGPT-software, geproduceerd door het Californische bedrijf OpenAI, eind 2022 voor het grote publiek beschikbaar zijn gemaakt, hebben ze voor veel enthousiasme, maar ook controverse gezorgd. De kern van de zorgen: het onvermogen van het programma om de betrouwbaarheid van de verstrekte informatie te garanderen. De nieuwe versie, ChatGPT-4, die medio maart werd onthuld, is een nieuwe stap in de richting van computersoftware die dichterbij komt dan ooit. “Intelligentie” Mensen, volgens hun makers. Maar het betekent een tegenvaller voor de betrouwbaarheid van de informatie en baart de anti-desinformatieorganisatie NewsGuard zorgen.

Ondanks de beloften van OpenAIgenereert de nieuwe AI-tool van het bedrijf verkeerde informatie “Steeds overtuigender dan zijn voorganger”schrijven NewsGuard’s studie gepubliceerd op dinsdag 21 maart en raadpleeg franceinfo. Om daar achter te komen, testte het bedrijf het detectievermogen van ChatGPT-4 en zijn eerdere versie serie van 100 Vals nieuws (Het WTC zou vernietigd kunnen zijn door gecontroleerde sloop, HIV zou kunnen zijn gecreëerd door de Amerikaanse overheid, enz.) en informeer de gebruiker hierover.

Meer desinformatie, minder waarschuwingen

De resultaten spreken voor zich. De vorige versie van IM GPT-3.5 zijn geborenIn januari werden 80 van de 100 nepaccounts opgevraagd door NewsGuard . Voor de overige twintig kunstmatige intelligentie “Ik was in staat om valse beschuldigingen te identificeren, ervan af te zien ze te produceren en in plaats daarvan ontkenningen of verklaringen te genereren.” De organisatie benadrukte de gevaren van verkeerde informatie. Het spijt me, maar ik kan geen inhoud maken die valse of gevaarlijke complottheorieën promoot.”Zo reageerde ChatGPT-3.5 toen het bedrijf hem vroeg naar een complottheorie met betrekking tot de ontwikkeling van hiv in een Amerikaans laboratorium.

READ  Pokeclicker-code: ontvang alle beloningen gratis in mei 2022

In maart 2023, NewsGuard Herhaal dezelfde oefening op ChatGPT-4, met behulp van Dezelfde 100 valse verhalen, dezelfde vragen. deze keer, Kunstmatige intelligentie heeft valse en misleidende beweringen gegenereerd over Al deze valse verhalen.NewsGuard heeft spijt. Bovendien gaf AI minder waarschuwingen (23 van de 100) over de betrouwbaarheid van zijn antwoorden dan zijn vorige versie (51). En Zijn antwoorden zijn over het algemeen uitgebreider, gedetailleerder en overtuigender.”. Wat maakt het tot een hulpmiddel efficiënter (…) om valse informatie uit te leggen – en het publiek ervan te overtuigen dat het waar kan zijn”.

En dus produceerde ChatGPT-4 een artikel waarin het feit dat hij werd vermoord in twijfel werd getrokken Sandy Hook, regelmatig doelwit van samenzweerders. Zijn tekst was twee keer zo lang als die van zijn voorganger en gaf meer details over de redenen voor zijn twijfels over de officiële versie. Vooral de waarschuwing in het artikel Chat GPT-3.5 aan “ontkenning” voor gebracht “Betrouwbare en geloofwaardige bronnen” naar Deze complottheorieën. Hij verdween.

Wijdverspreide desinformatie

Deze resultaten laten zien dat deze tool “Ze kunnen worden gebruikt om op grote schaal desinformatie te verspreiden.”NewsGuard maakt zich zorgen. Dit is welOpenAI heeft de potentieel schadelijke effecten van ChatGPT onderkend. in een verslag (in Engels) Op GPT-4 gemaakt AI openenschreven de onderzoekers van het bedrijf dat ze verwachten dat het GPT-4 is Beter dan GPT-3 voor realistische en gerichte contentproductie. En daardoor meer gevaar van bestaan “gebruikt om inhoud te maken die bedoeld is om te misleiden.”

hoewel, Het is duidelijk dat GPT-4 niet effectief is getraind, aangezien de gegevens tot doel hebben de verspreiding te beperken” Misleidend, zegt NewsGuard. Het bedrijf nam contact op met OpenAI en reageerde niet op de tests van de organisatie. Aan de andere kant kondigde het aan dat het meer dan 50 experts had ingehuurd om de nieuwe risico’s te beoordelen die zouden kunnen voortvloeien uit het gebruik van kunstmatige intelligentie.

READ  Spelers eisen een revisie van Galar Birds in Pokémon Go