Buitenland

‘Godfather of AI’ Geoffrey Hinton: De vier grootste gevaren van AI

04-05-2023 12:42

AIcalyps
DALL-E.

SAN FRANCISCO (AP) – Geoffrey Hinton, een bekroonde computerwetenschapper die bekend staat als de “peetvader van de kunstmatige intelligentie”, twijfelt ernstig aan de vruchten van zijn werk.

Hinton heeft meegewerkt aan de ontwikkeling van AI-technologieën die essentieel zijn voor een nieuwe generatie zeer capabele chatbotten, zoals ChatGPT. Maar in recente interviews zegt hij dat hij onlangs een prominente baan bij Google heeft opgezegd, juist om zijn bezorgdheid te delen dat ongecontroleerde AI-ontwikkeling een gevaar voor de mensheid kan opleveren.

“Ik ben plotseling van mening veranderd over de vraag of deze dingen intelligenter zullen worden dan wij,” zei hij in een interview met MIT Technology Review. “Ik denk dat ze er nu heel dichtbij zijn en dat ze in de toekomst veel intelligenter zullen zijn dan wij. Hoe overleven we dat?”

Hinton staat niet alleen in zijn zorgen. Kort nadat de door Microsoft gesteunde startup OpenAI in maart zijn nieuwste AI-model genaamd GPT-4 had uitgebracht, ondertekenden meer dan 1000 onderzoekers en technologen een brief waarin werd opgeroepen tot een pauze van zes maanden voor de ontwikkeling van AI, omdat het volgens hen “diepgaande risico’s voor de samenleving en de mensheid” met zich meebrengt.

Hieronder een blik op Hintons grootste zorgen over de toekomst van AI, en de mensheid.

1 – HET DRAAIT ALLEMAAL OM DE NEURALE NETWERKEN

Onze menselijke hersenen kunnen calculusvergelijkingen oplossen, auto’s besturen en de personages in Succession bijhouden dankzij hun aangeboren talent om informatie te organiseren en op te slaan en oplossingen te bedenken voor lastige problemen. De ongeveer 86 miljard neuronen in onze schedel – en, nog belangrijker, de 100 biljoen verbindingen die deze neuronen onderling maken – maken dat mogelijk.

De technologie van ChatGPT daarentegen heeft tussen de 500 miljard en een triljoen verbindingen, aldus Hinton in het interview. Dat lijkt een groot nadeel ten opzichte van ons, maar Hinton merkt op dat GPT-4, het nieuwste AI-model van OpenAI, “honderden keren meer” weet dan een mens. Misschien, suggereert hij, heeft het een “veel beter leeralgoritme” dan wij, waardoor het efficiënter is in cognitieve taken.

2 – AI IS MISSCHIEN AL SLIMMER DAN WIJ

Onderzoekers hebben lang opgemerkt dat kunstmatige neurale netwerken veel meer tijd nodig hebben om nieuwe kennis op te nemen en toe te passen dan mensen, omdat het trainen ervan enorme hoeveelheden energie en gegevens vergt. Dat is niet langer het geval, stelt Hinton, die opmerkt dat systemen als GPT-4 heel snel nieuwe dingen kunnen leren als ze eenmaal goed zijn getraind door onderzoekers. Dat is vergelijkbaar met de manier waarop een getrainde professionele natuurkundige veel sneller nieuwe experimentele bevindingen kan verwerken dan een middelbare scholier.

Dat brengt Hinton tot de conclusie dat AI-systemen ons misschien al te slim af zijn. AI-systemen kunnen niet alleen sneller dingen leren, merkt hij op, ze kunnen ook bijna onmiddellijk kopieën van hun kennis met elkaar delen.

“Het is een heel andere vorm van intelligentie,” vertelde hij de publicatie. “Een nieuwe en betere vorm van intelligentie.”

3 – OORLOGEN EN GERUCHTEN OVER OORLOGEN

Wat zouden slimmere dan menselijke AI-systemen doen? Een verontrustende mogelijkheid is dat kwaadwillende individuen, groepen of natiestaten ze eenvoudigweg zouden kunnen gebruiken om hun eigen doelen te bereiken.

Hinton is vooral bezorgd dat deze instrumenten kunnen worden getraind om verkiezingen te beïnvloeden en zelfs om oorlogen te voeren.

Verkiezingsmisleiding via AI-chatbots zou bijvoorbeeld de toekomstige versie kunnen zijn van verkiezingsmisleiding via Facebook en andere sociale media.

En dat zou nog maar het begin kunnen zijn. “Denk geen moment dat Poetin geen hyperintelligente robots zou maken met als doel Oekraïners te vermoorden”, aldus Hinton in het artikel. “Hij zou niet aarzelen.”

4 – EEN TEKORT AAN OPLOSSINGEN

Wat niet duidelijk is, is hoe iemand een macht als Rusland ervan zou kunnen weerhouden AI-technologie te gebruiken om zijn buren of zijn eigen burgers te domineren. Hinton suggereert dat een wereldwijde overeenkomst vergelijkbaar met het verdrag over chemische wapens uit 1997 een goede eerste stap zou kunnen zijn in de richting van internationale regels tegen AI als wapen.

Hoewel het ook de moeite waard is om op te merken dat het chemische wapenverdrag geen einde heeft gemaakt aan de vermoedelijke Syrische aanvallen met chloorgas en het zenuwgas sarin tegen burgers in 2017 en 2018 tijdens de bloedige burgeroorlog.