A.I. in het vizier

De uitreiking van de Nobelprijs voor fysica 2024 was een aanleiding om enkele artikelen over de evolutie van AI in de laatste jaren op te duikelen en te fileren.

1 – De revolutionairen van de artificiële intelligentie, De Standaard, 28-03-2019
2 – Experts roepen onderzoek naar artificiële intelligentie halt toe, VRT NWS, 29-03-2019
3 – Hinton heeft kritiek op AI, (3a) De Standaard, 02-05-2023, (3b) VRT NWS, 02-05-2023
4 – AI-pionier Bengio maakt zich zorgen, De Standaard, 01-07-2023
5 – Tegen big tech bestaat geen tegenmacht, De Standaard, 12-08-2023
6 – Nobelprijs Fysica voor Hopfield en Hinton, (6a) De Standaard, 08-10-2024, (6b) VRT NWS, 08-10-2024
7 – Epiloog incl. samenvatting.

Schuine tekst is originele brontekst. Tekst in klein groen is mijn commentaar. Tekst in vet groen, klein of groot, zijn koppelingen naar achtergrondinformatie.


Turing Award bekroont drie godfathers van deep learning

1 – De revolutionairen van de artificiële intelligentie

Geen hond geloofde nog in neurale netwerken, in de jaren 80-90. Maar drie onderzoekers bleven koppig doorwerken. Daarvoor worden ze nu beloond.

Dominique Deckmyn, De Standaard, 28 maart 2019

In de jaren 60 waren de verwachtingen rond artificiële intelligentie (AI) hooggespannen. Neurale netwerken, software die de werking van onze hersenen imiteert, zouden ons menselijke denkwerk spoedig kunnen evenaren of overtreffen. Maar de resultaten bleven uit (door technische beperkingen), de geldschieters haakten af, en vanaf midden jaren 70 was je, als computerwetenschapper, goed gek als je je nog met AI inliet.

Drie onderzoekers wáren goed gek: Geoffrey Hinton, Yann ­LeCun en Yoshua Bengio. Zij zorgden voor enkele cruciale door­braken die de werking van neurale netwerken verbeterden. Voeg daar­bij de toegenomen rekenkracht van chips en de beschikbaarheid van big data, en de huidige deep-learningrevolutie was geboren. Deep learning is een wat arbitraire term voor een gevorderde meerlagige toepassing van machine learning. Voor die cruciale rol worden de drie nu onderscheiden met de Turing Award, een prijs voor verdienste in de computerwetenschap, goed voor 1 miljoen dollar. Vergelijkbaar met een Nobelprijs… Gesponsord door Google, overigens.

Machine, bijna mens

Alan Turing, naar wie de prijs is genoemd, legde in de jaren 40 en 50 de fundamenten voor de latere ontwikkelingen in AI. Zo definieerde hij in 1950 de beroemde Turing test: een machine is intelligent als een menselijke ondervrager in een schriftelijke conversatie het onderscheid niet meer kan maken tussen die machine en een mens. Nu is die Turing test niet per se zaligmakend. Een artikel in Science zegt bv. "Turing bood zijn test aan als een filosofisch gedachte-experiment, niet als een praktische manier om de intelligentie van een machine te meten". Er is veel kritische lectuur te vinden als je zoekt op Turing test criticism, bv. deze paper, met een interessante thesis: "vooraleer de Turing test zinvol kan verbeterd worden, moeten we veel meer begrijpen, niet alleen van intelligentie in machines, maar ook van intelligentie in mensen, en een van de beste manieren om dat te doen is door machines te bouwen die de Turing test in zijn huidige vorm kunnen doorstaan". Geoffrey Hinton (71)(1947) ontdekte eind jaren 80 het principe van backpropagation, een feedbacktechniek waarbij het neurale netwerk zijn resultaat telkens een beetje bijstuurt tot het helemaal goed zit. Zo kan het 'leren'. Wel ingewikkelde boel; zie het originele artikel in Nature (1986). De techniek zit nu in de meeste deep-learningsystemen ingebouwd. Met neurale netwerken probeert men weliswaar het menselijk brein na te bootsen, maar dat werkt in twee richtingen. In Backpropagation and the brain speelt deze techniek een rol in het onderzoek naar de werking van het menselijk brein. Het verband met de polemiek rond de Turing test is duidelijk.

De Fransman Yann LeCun (58)(1960) werkte samen met Hinton om de backpropagation te verfijnen, en ontwikkelde een nieuw type van neurale netwerken: de convolu­tional neural nets of CNN's. Die CNN's moesten het probleem van im- en exploderende gradiënten bij backpropagation tegengaan. Die vormen nu de basis van zowat alle systemen voor beeldherkenning, onder meer in zelfsturende auto's. LeCun realiseerde die doorbraak samen met de Canadees-Franse onderzoeker Yoshua Bengio (1964), die zich later toelegde op neurale netwerken die spraak herkennen. Ik denk dat we drie aspecten moeten onderscheiden in de trage evolutie van A.I.: wiskundige problemen (zoals die gradiënten, maar er zijn er allicht nog andere), verwerkingscapaciteit (om al die zware wiskundige technieken toe te passen), en beschikbaarheid van data. Vooral die laatste twee zijn in een paar decennia sterk toegenomen. Een grenzeloze hang naar macht en rijkdom zorgde voor een 'doorbraak'. Of die doorbraak moet gezien worden als een stap voorwaarts voor de mens of als een dijkbreuk is nog af te wachten.

Yann LeCun werd in 2013 bij Facebook binnengehaald als chief AI scientist. Om aan basisonderzoek te doen, eerder dan om mee te werken aan het sociale netwerk, zei hij toen. Maar misschien nog meer om Facebook in het AI-wereldje een zekere ­sérieux te geven. Hinton werkt nu (2019) voor Google, dat zijn bedrijfje DNN Research heeft overgenomen (waarna hij zich een eiland aanschafte). Bengio bleef vooral in de academische wereld hangen.


2 – Experts en Elon Musk roepen onderzoek naar artificiële intelligentie halt toe: "Niemand begrijpt goed hoe die systemen werken"

In een open brief roepen experts op om het onderzoek naar geavanceerde artificiële intelligentie zes maanden te pauzeren om eerst meer regels op poten te zetten. De recente vooruitgang zou "ernstige risico's voor de samenleving inhouden". De brief verzamelde al meer dan 1.100 handtekeningen, van onder meer Twitterbaas Elon Musk, mede-oprichter van Apple Steve Wozniak en auteur Yuval Noah Harari.

Lina El Bakkali, Jarno Treuttens, VRT NWS, 29 maart 2023

"Systemen van artificiële intelligentie die concurreren met de intelligentie van de mens kunnen grote risico's inhouden voor de samenleving en de mensheid. Dat blijkt uit uitgebreid onderzoek." Ik ben geneigd de bewering te ondersteunen, en kijk bijgevolg uit naar dat uitgebreid onderzoek.

Zo start de open brief van de non-pro­fit­or­ga­ni­sa­tie Future of Life Institute ("een non-profitorganisatie die streeft naar het sturen van transformatieve technologie in de richting van leven en weg van grootschalige risico's, met een focus op existentiële risico's van geavanceerde kunstmatige intelligentie"; interessant dat zoiets bestaat) waarin de gevaren van artificiële intelligentie (AI) worden aangekaart. "Geavanceerde AI zou een ingrijpende verandering kunnen betekenen ("zou kunnen") in de geschiedenis van het leven op aarde, en zou met de gepaste ("commensurate" = evenredige) zorg en middelen moeten worden beheerd" ("zou moeten"; allemaal nogal vrijblijvend), gaat de brief verder.

"Helaas gebeurt dat niet (dat zorgvuldig beheer), ook al zijn AI-laboratoria de afgelopen maanden verwikkeld geraakt in een uit de hand gelopen race om steeds krachtigere digitale breinen te ontwikkelen die niemand – zelfs hun makers niet – kan begrijpen, voorspellen of op een betrouwbare manier controleren." (1) De Future of Life Institute (FLI) is blijkbaar bezorgd. (2) Dat er geen zorgvuldig beheer wordt gevoerd, "ondanks de uit de hand gelopen race", suggereert dat de FLI veronderstelt dat een uit de hand lopende race iemand zou aanzetten tot maatregelen daartegen. Ik vrees dat Big Tech daarvoor al te groot is. (3) Begrijpen, voorspellen en controleren zijn drie verschillende aspecten. (3a) Dat zelfs de makers hun maaksels niet begrijpen, begrijp ik niet. De ontwikkelaars van AI-systemen weten immers wel wat ze daar allemaal in steken, zoals backpropagation en CNN's (zie hoger). Die afzonderlijke processen worden erin opgenomen met een bepaald doel. Nu kan ik mij voorstellen dat ze na zoveel jaren experimenteren en veranderen geen verband meer kunnen leggen tussen een bepaald proces en het resultaat daarvan, omdat die verschillende processen elkaars resultaten beïnvloeden. Niettemin, als een AI-systeem foutieve resultaten produceert, en de makers kunnen niet zeggen waar het aan ligt, dan zou volgens mij zo'n systeem niet mogen gebruikt worden. (3b) Voorspellen hangt samen met begrijpen, maar is niet hetzelfde, voor zover het resultaat in zekere mate afhangt van toeval. En blijkbaar is dat ook zo; als je aan ChatGPT een vraag twee keer stelt, krijg je twee verschillende antwoorden. Ik deed de test met deze vraag: "als ik aan ChatGPT eenzelfde vraag twee keer voorleg, krijg ik dan twee keer hetzelfde antwoord?". Het eerste antwoord: "Niet altijd! Als je dezelfde vraag twee keer stelt, kan het zijn dat ik verschillende antwoorden geef, afhankelijk van de context of nuances in de formulering." Dat bedoelde ik niet, maar tot daartoe. "Ik probeer afwisselend te zijn en te variëren in mijn antwoorden, zelfs als de vraag hetzelfde is. Wil je een specifieke vraag stellen om het uit te proberen?". Tweede antwoord: "Dat hangt af van de vraag en de context. Het is mogelijk dat ik verschillende antwoorden geef, zelfs op dezelfde vraag, omdat ik probeer af te wisselen in mijn reacties." Aha! "Wil je het proberen met een specifieke vraag?" (ook een variatie). Voorspellen wordt op die manier wel moeilijk, of je zou moeten gaan sleutelen aan de betekenis van "voorspellen", en dat maakt het niet gemakkelijker. (3c) Ook controleren is niet eenvoudig, maar wel mogelijk, zou ik denken, vermits andere methoden om informatie te vinden blijven bestaan. Wat nog niet betekent dat controle wordt ingezet om de betrouwbaarheid na te gaan… In diverse tests die ik in deze blog al deed met MS CoPilot en ChatGPT bleken deze tools regelmatig de mist in te gaan, of onnauwkeurig te zijn, wat blijkbaar geen reden is geweest om ze niet op de markt te gooien. Het is dus maar de vraag wat er wordt gedaan met de resultaten van controles, áls ze al gebeuren.

1.125 handtekeningen

De open brief kan op dit moment al rekenen op de handtekening van 1.125 mensen (na een week; oktober 2024 al 33707; stijgt niet meer), onder wie AI-experts en een paar van de grootste namen in de techwereld. Op de derde plek prijkt de naam van Twitter- en Teslabaas Elon Musk. Speciaal geval.

Opvallend genoeg was Musk een van de oprichters van OpenAI. Opvallend is hij zeker. Dat is een bedrijf dat onderzoek doet naar artificiële intelligentie en met de veelbesproken chatbot ChatGPT op de proppen kwam. De afgelopen maanden heeft Musk wel al vaker zijn bezorgdheden geuit over de technologie.

Eén van de ondertekenaars is de Belgische professor Tom Lenaerts van de VUB en ULB. Lenaerts heeft de brief voor twee redenen ondertekend. "Ten eerste ben ik betrokken bij een organisatie die overheden adviseert hoe artificiële intelligentie te gebruiken (ogenschijnlijk geen verband, maar dat wordt in het bijgaande filmpje beter uitgelegd). Daarnaast ben ik betrokken geweest bij een onderzoek dat vaststelt welke problemen er kunnen zijn bij een te snelle (?) ontwikkeling van AI-systemen." Ook als je slechte systemen traag ontwikkelt zijn ze schadelijk.

En het is die snelle ontwikkeling die de experten zorgen baart. "Je gebruikt iets wat je niet begrijpt", zegt Lenaerts. "Wetenschappers hebben moeite om te weten wat die systemen juist aan het doen zijn, hoe ze aan hun informatie komen en hoe ze dat vertalen naar een boodschap." Twee aspecten. Enerzijds punt 3a en 3b hierboven: een verband aantonen tussen deelprocessen en een resultaat is al niet meer te doen. Anderzijds punt 3c: je kan altijd controleren of het geleverde resultaat een goed antwoord is op de gestelde vraag, los van wat er in dat (black box) AI-systeem gebeurt.

Volgens Lenaerts is de opschaling van dergelijke AI-systemen een gevaar. "Een klein systeem is relatief makkelijk te begrijpen, maar men is gewoon gaan opschalen naar grotere varianten. Eigenlijk bouw je mastodonten en weet je niet juist wat ze zijn." Ik weet niet of je wel kan stellen dat een groter systeem ook een grotere onzekerheid oplevert. Relatief in elk geval niet, denk ik, in de veronderstelling dat het percentage betrouwbaarheid niet afhangt van de grootte. Absoluut dan weer wel, omdat een groot systeem ook meer vragen kan beantwoorden (in aantal en in type vragen), en dan ook meer onbetrouwbare antwoorden kan produceren.

Open discussies en regelgeving

Voor Lenaerts is het vooral belangrijk dat de grote spelers, de Microsofts van deze wereld, aan tafel zitten om te discussiëren. Alsof ze dat nog niet gedaan hebben; alle maatschappijgerelateerde problemen zijn al van die tafel geveegd. "Je moet op een manier afspraken maken, via algemene standaarden of interne regels. Het gaat hier niet over onderzoekers of universiteiten die iets maken. Het zijn de grote bedrijven die bepalen wat AI-onderzoek inhoudt en dat alleen al is voor een deel problematisch", aldus Lenaerts. Denk ik ook; zelfs helemaal problematisch. De uitleg van Lenaerts is overigens goed; het probleem wordt duidelijk beschreven. Zie het VRT-artikel, achteraan.


3a – 'Godfather van AI' waarschuwt voor gevaren eigen geesteskind

Van dit bericht is er nog een kortere versie in omloop bij De Standaard; die vind je hier. Blijkbaar is de tekst ingekort om ergens in een beschikbare ruimte te kunnen passen; in essentie is niets veranderd aan de inhoud. Hieronder de originele versie.

Een van de meest vooraanstaande AI-veteranen stapt op bij Google om vrij zijn twijfels te kunnen uiten over de ontwikkeling van de generatieve AI.

Dominique Deckmyn, De Standaard, 2 mei 2023

De Brit Geoffrey Hinton is met z'n 75 jaar al ruimschoots pensioen­gerechtigd. Een lange beschrijving van Hinton, als mens en wetenschapper, en van zijn werk, vind je hier. De psycholoog en ­computerwetenschapper speelt al sinds de jaren 80 een sleutelrol in de ontwikkeling van neurale netwerken, die de basis vormen voor de huidige doorbraken op het vlak van generatieve AI. De afgelopen tien jaar werkte hij voor Google. Maar daar nam hij ontslag, zegt hij in een gesprek met de Amerikaanse krant The New York Times. Zoals gezegd in de kop: om vrij zijn twijfels te kunnen uiten. Dat zegt veel over de bedrijfscultuur bij Google. Bij de meeste bedrijven zal het niet anders zijn; wiens brood men eet, diens woord men spreekt.

Tot vorig jaar (november 2022 kwam ChatGPT op de markt) gebeurde de ontwikkeling van AI bij Google nog op een verantwoorde manier, aldus Hinton. Maar sinds de lancering van ChatGPT door OpenAI zijn Google en Microsoft (dat nauw ­samenwerkt met OpenAI) ver­wikkeld in een gevaarlijke technologische race. 'Het is moeilijk voor te stellen hoe je kunt voorkomen dat slechteriken AI gebruiken voor slechte zaken', zegt de 'godfather van de AI', zoals hij weleens genoemd wordt. 'Want wie weet, is wat in die systemen gebeurt, eigenlijk wel een stuk beter dan wat in het menselijke brein gebeurt.' (1) Vreemde conclusie; ik denk dat het één weinig te maken heeft met het ander. Nieuwe ontwikkelingen worden altijd misbruikt, of ze nu goed zijn of niet. (2) De technologische race wordt op allerlei fronten uitgevochten, waarbij zelfs grote middelen worden ingezet om aan energie te geraken. Zowel Microsoft als Google willen kerncentrales herstarten of bouwen. (3) Er worden grote bedragen geïnvesteerd in de ontwikkeling van AI, niet alleen in de techsector, maar ook bij landen, opgejaagd door de grote consultancy firma's. (4) Ik vraag aan ChatGPT welke investeringen de techgiganten de afgelopen jaren deden, en over welke bedragen dat gaat:
De investeringen van techgiganten in AI zijn enorm en variëren per bedrijf en project. Hier zijn enkele schattingen van bedragen die in recente jaren zijn besteed:
Google (Alphabet): Google heeft meer dan $30 miljard geïnvesteerd in AI-onderzoek en -ontwikkeling over de afgelopen jaren, inclusief overnames van AI-startups.
Microsoft: De investering in OpenAI bedroeg in totaal ongeveer $13 miljard, met een serie van investeringen die begon in 2019 en doorliep tot recentere jaren.
Amazon: Amazon investeert jaarlijks meer dan $35 miljard in onderzoek en ontwikkeling, waarvan een groot deel naar AI-technologie gaat. Specifieke bedragen voor AI-projecten worden vaak niet openbaar gemaakt.
Meta (Facebook): Meta heeft meer dan $10 miljard per jaar geïnvesteerd in zijn metaverse-projecten, waarvan een aanzienlijk deel naar AI-onderzoek en -ontwikkeling gaat.
NVIDIA: NVIDIA's totale R&D-uitgaven zijn gestegen tot ongeveer $5 miljard per jaar, waarbij een groot deel wordt besteed aan AI-technologie en hardware.
Apple: Hoewel Apple geen specifieke bedragen voor AI-investeringen bekendmaakt, wordt geschat dat hun jaarlijkse R&D-uitgaven, die meer dan $20 miljard bedragen, ook een aanzienlijke component AI bevatten.
Deze bedragen illustreren de enorme middelen die techgiganten inzetten om voorop te blijven in de snel evoluerende AI-sector.
Dat ik hier ChatGPT nuttig dacht te kunnen gebruiken toont het gevaar aan van zo'n hulpmiddel. Ik vond immers niet dadelijk een goede bron voor deze informatie, en ChatGPT geeft mij een op het eerste gezicht zeer bruikbaar resultaat, en dan reageer ik zoals iedereen: waarom zou ik dit niet gebruiken? Ik heb geen enkel bedrag geverifieerd, en mijn zeldzame lezers ook niet, maar dat is ook niet belangrijk; dit ziet er degelijk uit, bewijst mijn punt dat er veel geld omgaat bij A.I., en dat volstaat voor mij. En zo redeneren allicht al die andere ChatGPT-gebruikers ook. Dat mijn tests uitwijzen dat ChatGPT doorgaans onbetrouwbaar is speelt dan geen rol meer. Ik zie een overeenkomst met het verschil tussen een persoonlijke en een maatschappelijke visie. We hebben geen probleem met die buitenlanders in onze straat, maar Europa moet niet zomaar iedereen binnenlaten, ook al vraagt het kapitalisme om arbeidsmigratie. In A.I.-termen: ik gebruik zelf een ongeverifieerd resultaat van ChatGPT, maar vind wel dat de overheid mag waken over de betrouwbaarheid van tools die de techsector veel geld opleveren. Het lijkt telkens neer te komen op een strijd tussen de overheid en het kapitalisme.

Hinton doelt onder meer op de cognitieve vaardigheden en de rekencapaciteiten van de artifi­ciële intelligentie. 'Kijk naar hoe die AI vijf jaar geleden was en kijk naar hoe ze nu is', zegt hij. 'Neem het verschil en reken daarmee vooruit. Dat is angstaanjagend.' Dat is eerder voorbarige extrapolatie. Meer concreet vreest hij dat het internet­ vol valse foto's, video's en tekst zal staan, en 'dat de gemiddelde persoon niet langer zal kunnen onderscheiden wat echt is en wat niet'. Ook weer twee te onderscheiden aspecten hier. (1) Als je politiek en media een beetje volgt begrijp je dat de gemiddelde persoon al heel lang, en zeker sinds de opkomst van sociale media, niet meer weet wat echt is en wat niet. Voor elke mogelijke opinie vind je wel een bron waarvan je de betrouwbaarheid niet kan inschatten. (2) Dit effect wordt versterkt door misbruik van A.I. (1+2) Dat betekent dan ook dat een beperking op het gebruik van A.I. dit probleem niet zal oplossen.

Slimmer dan de makers

Hinton wijst op gevaren die ook ­andere experts de afgelopen maanden al aanhaalden. Op langere termijn vreest hij dat AI-systemen slimmer zullen worden dan hun ontwikkelaars en dat ze onverwacht gedrag zullen aan­leren uit de data waarmee ze worden gevoed­. 'Dat deze dingen echt slimmer kunnen worden dan mensen, werd eerder al gedacht, maar we gingen ervan uit dat dat nog verre toekomst was', zegt Hinton. 'Ik dacht dat eerder ook, ik dacht dat het nog 30 jaar, 50 jaar of zelfs langer­ zou duren (m.a.w. dat hij het nooit zou meemaken; na ons de zondvloed). Vanzelfsprekend denk ik dat nu niet meer.' (1) Je kan deze discussie niet concreet voeren als je niet definieert wat intelligentie is. (2) Hinton suggereert dat door de mens gebouwde systemen dingen gaan doen die de mens niet meer begrijpt. Geloof ik ook, uitgaande van de menselijke beperkingen en de klein kantjes van onze soort (zie de zeven hoofdzonden; ook voor goddelozen).

Drie godfathers

In 2018 kreeg Hinton, samen met Yoshua Bengio en Yann LeCun, nog de Turing Award voor hun bijdrage aan deep learning. Het drietal wordt wel eens omschreven als de drie 'godfathers van AI'. Bengio pleitte er enkele weken geleden openlijk voor om de ontwikkeling van AI te vertragen. Hij was medeondertekenaar van de (niet onomstreden) open brief waarin gepleit wordt voor een moratorium van zes maanden. Hinton en LeCun ondertekenden de brief toen niet. ­LeCun relativeert de mogelijk­heden en de gevaren van generatieve AI, hij gelooft dat de technologie overschat wordt en tegen zijn grenzen aanloopt. Denk ik ook, maar momenteel worden veel grenzen wel erg hard opgerekt. We zullen maar hopen dat er geen dijkbreuk van komt…

Geoffrey Hinton is de achter-achterkleinzoon van de wiskun­dige George Boole, die als een van de grondleggers van de computerwetenschap wordt beschouwd. Weetje :-)

3b – Grondlegger van artificiële intelligentie verlaat Google en waarschuwt: "We moeten ons zorgen maken"

Zelfde evenement als het vorige bericht, zelfde datum, andere uitgever: de VRT.

In de handen van de verkeerde mensen kan kunstmatige intelligentie, of AI, leiden tot "slechte dingen" en "nogal gevaarlijke" situaties. Dat zegt Geoffrey Hinton, een van de vaders van de technologie. Hij stapt op bij Google.

Tom Van de Weghe, Vincent Merckx, VRT NWS, 02 mei 2023

Stel je een leger voor van tienduizend man dat voortdurend bijleert. Zodra één individu iets nieuws leert, wordt die kennis meteen toegankelijk voor al zijn of haar collega's. Hoe lang zou het duren voor dat tot oncontroleerbare situaties leidt? Ik zie geen verband tussen een snelle verspreiding van kennis en het ontstaan van oncontroleerbare situaties. De subkop heeft het over "slechte dingen", en kennis kan inderdaad goed of slecht gebruikt worden (niet zijn…), maar of dat tot oncontroleerbare situaties leidt is iets heel anders. Vreemd begin; komt dit echt van Hinton?

Zo schetst Geoffrey Hinton de risico's van kunstmatige intelligentie of AI. Ik heb die schets niet kunnen terugvinden; misschien toch een bedenksel van de auteurs? Hinton, een cognitief psycholoog (onderzoekt menselijke waarneming, verwerking en opslag van informatie, en de invloed daarvan op gedrag) en computerwetenschapper, is een van de grondleggers van de technologie. Samen met zijn collega's David Rumelhart en Ronald J. Williams schreef hij in de jaren tachtig een paper die de basis zou leggen voor deep learning. Dat is het proces waarbij een computersysteem verbanden leert te herkennen in enorme hoeveelheden data. Dat is dan weer het basisprincipe waarop AI-systemen zoals ChatGPT werken. Voor zijn werk ontving hij in 2018 de prestigieuze Turing-prijs, zeg maar de Nobelprijs voor computerwetenschappen.

Diezelfde Hinton stopt nu met zijn werk voor Google. Hij is 75 en noemt het "tijd om met pensioen te gaan". Volgens Deckmyn was dat om vrij te kunnen spreken; beetje vreemd dat dat aspect hier wegvalt.

Kopieën die van elkaar leren

Hinton maakt van de gelegenheid gebruik om te waarschuwen voor de gevaren van de technologie die hij zelf mee heeft ontwikkeld. Dat doet hij in een statement aan de krant The New York Times en een interview met de Britse openbare omroep BBC.

"Voor zover ik kan zien, zijn AI-systemen op dit moment nog niet intelligenter dan wij. Definieer 'intelligent'? Maar ze zouden dat binnenkort (?) wel kunnen zijn", zegt hij. "Nu al zien we dat iets als GPT-4 (een AI-taalmodel dat een chatbot aanstuurt, red.) de algemene kennis van een persoon ver overstijgt. Definieer 'kennis'? In het rijtje gegevens > informatie > kennis gaat het nog steeds om informatie. Kennis impliceert begrip, en dat ontbreekt bij A.I. Het redeneert wel nog minder goed, maar het kan wel al eenvoudig redeneren." Definieer 'redeneren'? De Turing test (zie hoger) is vooral een aanleiding om na te denken over intelligentie, zowel menselijke als kunstmatige, en vergelijkingen gebeuren nog steeds in beide richtingen. Ik heb nog geen definities gezien die bruikbaar waren om mensen en machines te vergelijken.

Op dit punt in het VRT-artikel krijg je een filmpje waarin Geoffrey Hinton uitleg geeft over het verschil tussen biologische en digitale systemen:

Ik heb vastgesteld dat de intelligentie (Hinton: de soort intelligentie) die we aan het ontwikkelen zijn sterk verschilt van onze eigen intelligentie. Wij zijn biologische systemen, en dit zijn digitale systemen. Het grote verschil is dat digitale systemen veel kopieën zijn van hetzelfde wereldbeeld. Hinton: "You have many copies of the same set of weights, the same model of the world", waarmee hij alludeert op het leerproces van A.I. door het wiskundig bepalen van factoren of 'gewichten'. Die kopieën kunnen zelfstandig dingen leren maar delen die kennis meteen. Je kan het vergelijken met 10000 mensen die wat één van hen leert meteen allemaal leren. Zo kunnen die systemen dus veel meer weten dan een mens. Opnieuw: definieer 'weten'…?! Dat gedoe met definities is niet simpel, en dus wordt het gemakkelijk genegeerd (een beetje zoals ook de term 'soort' werd genegeerd in de vertaling). Met als gevolg dat de vraag of machines intelligent kunnen zijn maar niet beantwoord geraakt. Basale fout: vlag-en-ladingprobleem.

Vervolg van de tekst: "Wij zijn biologische systemen en dit zijn digitale. Het grote verschil is dat digitale systemen bestaan uit veel kopieën" die allemaal hetzelfde pakket van basisinformatie delen. Selectie en interpretatie van de auteur. In de (uiteraard veel te beknopte) uitleg van Hinton wordt niet duidelijk waarom die kennis in digitale systemen meteen wordt gedeeld. De auteur verwoordt zijn idee daarvan (dat zou kunnen kloppen, maar het fenomeen maar half verklaart). Als lezer (1) weet je al niet dat dit een interpretatie is van wat (niet) is gezegd, en (2) maak je opnieuw een interpretatie van de opinie van de auteur. Basale fouten zijn zo gebeurd, en zeker de media komen er niet onderuit. "Al die kopieën kunnen afzonderlijk van elkaar leren, maar die kennis wel onmiddellijk met elkaar delen."

"Niet veel mensen geloofden dat AI ooit slimmer zou kunnen worden dan mensen. De meesten dachten dat dat veel te ver ging. Ik ook. Ik dacht dat het nog 30 jaar zou duren, 50 jaar, of nog langer. M.a.w.: hij kon het zich niet voorstellen. Maar dat denk ik nu dus duidelijk niet meer." Nu kan hij zich wel voorstellen dat één en ander in de soep draait. Ik ook, maar dat wist je al. Zou Hinton nog een verschil kunnen maken in de concurrentiestrijd tussen titanen?

Hier komt een kader met een uitleg van Tom Van de Weghe. Ik plaats dat naar achter, om de lijn van het VRT-artikel minder te verstoren.

Poetin

Het wordt moeilijk om te voorkomen dat kwade krachten gebruik zullen maken van die technologie, vreest Hinton. Omdat kwade krachten nu eenmaal alles gebruiken wat nuttig is. Hij geeft het voorbeeld van de Russische president Poetin. Mooi voorbeeld van een kwade kracht, gezien vanuit het Westen. Hinton noemt het een worst-case-scenario, maar niet ondenkbaar dat Poetin robots zou kunnen inzetten die hun eigen doelen kunnen bepalen, "zoals 'ik moet meer macht hebben'". Ik betwijfel of Poetin iets zou inzetten dat zijn eigen macht beperkt, zoals robots met een eigen doel. Ik denk dat Hinton hier wat doorschiet (voor zover dit geen interpretatie van de auteur is…). De bepaling van het doel van een systeem is een aspect dat zelden wordt besproken (zie bv. Wat als AI de mens inhaalt / Het betoog), maar sommigen, zoals Hinton, wel hoofdbrekens bezorgt. Dit op Poetin betrekken vind ik minder geslaagd.

Hinton neemt zijn voormalige werkgever Google, die AI-systemen mee ontwikkelt, niets kwalijk. Hij heeft misschien wel een dading getekend. Hij vindt dat Google "zeer verantwoordelijk" omgaat met de technologie.

Toch ziet hij dat ook Google nu verwikkeld is in een race (concurrentie is de grondreden van alle ellende in de wereld) met andere technologiebedrijven om AI zo snel mogelijk verder te ontwikkelen. Het doet dat onder andere onder druk (!) van Microsoft, dat al AI heeft geïmplementeerd in zijn zoekmachine Bing. Onder druk werken kan burn-out veroorzaken. Hinton vreest dat die wedloop niet meer te stoppen valt, en dat het internet overspoeld zal worden met valse foto's, video's en tekst. Ge moogt gerust zijn. Of ongerust, eerder.

Hinton sluit zich met deze waarschuwing aan bij andere technologie-experten die waarschuwen voor voorzichtigheid met AI. Eind vorige maand nog riepen 1.125 van hen, onder wie Twitter-CEO en Tesla-oprichter Elon Musk, op om het onderzoek naar AI te pauzeren. Zie hoger. Hieronder de kadertekst van Tom Van de Weghe.

Wat is er aan de hand met AI?

Misschien eerst dit: er gaan heel wat fabeltjes rond over artificiële intelligentie (AI). We kennen allemaal beelden van zelfstandige robots en in veel films wordt een super-intelligent wezen opgevoerd als het gaat over AI. Voor alle duidelijkheid, dit is sciencefiction. Zó ver staan we nog absoluut niet.

Eigenlijk kun je AI vandaag het best vergelijken met een stel goed geprogrammeerde wasmachines op een rij. Het is weinig meer dan een reeks voorgeprogrammeerde regels die een machine volgt. AI kan autonome beslissingen nemen zoals mensen dat doen, kan leren, denken, problemen oplossen en zelfstandig taken uitvoeren zonder dat er een mens aan te pas komt. Denk maar aan de zelfrijdende auto waar volop aan gewerkt wordt. Maar voor alle duidelijkheid: AI heeft geen gevoelens en is helemaal niet 'bewust' zoals een mens. Klopt niet helemaal. (1) Of een "reeks voorgeprogrammeerde regels", d.i. een algoritme, vergelijkbaar is met 'AI' is voor discussie vatbaar; dit is eerder een oversimplificatie t.b.v. de VRT-kijker. (2) AI neemt geen beslissingen; AI bepaalt een output op basis van een input, op een minder of meer gesofisticeerde manier. Een zelfrijdende auto is een gesofisticeerde machine waarin AI wordt gebruikt, maar is geen voorbeeld van AI. (3) Ook over leren, denken, problemen oplossen en taken uitvoeren kan gediscussieerd worden, als we die acties tenminste gedefinieerd krijgen (!). (1+2+3) Hier spelen dus heel wat vlag-en-ladingproblemen op basis van gebrekkige aspectscheidingen. Ik steun de stelling dat AI geen gevoelens of bewustzijn heeft, maar ze verliest haar kracht door dat overschot aan basale fouten.

Waar is AI nu goed in? Vandaag is het kampioen in het vinden van patronen (OK), in het verwerken van enorm veel informatie (dat is rekenkracht, niet specifiek AI), in alles wat met geheugen en herhaling te maken heeft (ook eerder IT algemeen). De technologie wordt steeds beter, zeker door de snelle ontwikkeling van wat we 'generatieve AI' noemen: Artificiële Intelligentie die zelf iets gaat ontwikkelen als je dat vraagt. Ik val achterover. (1) Ik denk niet (na weer rechtkrabbelen) dat generatieve AI zelf iets ontwikkelt, wel dat het op een gesofisticeerde manier output genereert op basis van input. In feite is ook hier een definitie (nl. van 'ontwikkelen') belangrijk om die discussie te kunnen voeren. (2) Er is inderdaad een snelle ontwikkeling geweest van generatieve AI, allicht omdat Big Tech daar een markt voor zag, maar er zijn nog andere soorten AI; een goede beschrijving vind je hier en hier.

U heeft wellicht al gehoord van ChatGPT, een chatbot die je bepaalde vragen kan stellen en die dan antwoorden zal genereren op basis van informatie die ook op het internet te vinden is. Of je kan met andere instrumenten ook beelden maken die nooit echt bestaan hebben. Zoals de paus die paradeert in hippe jassen.

Ook deze 'generatieve AI' kan bijzonder nuttig zijn, het kan ons versterken (definieer 'versterken'? :-) en efficiënter laten werken (maar niet effectiever, gezien de beperkte betrouwbaarheid). Het zal ook de inhoud van onze jobs grondig veranderen (voor zover die zich op het internet afspelen). Maar het kan natuurlijk ook misbruikt worden (zoals alles), bijvoorbeeld om desinformatie te verspreiden. Vandaag is er bovendien een wedloop bezig tussen grote bedrijven zoals Microsoft, Google en Meta om AI-toepassingen te ontwikkelen. Enkele bronnen: Big Tech's Race to AGI: Competing for the Ultimate AI Prize (techgiganten tegen elkaar) en The Global AI Race: How Countries Are Competing for Dominance (landen tegen elkaar). In het licht van de klimaatopwarming moet daar toch miserie van komen?

Het is daarvoor dat mensen zoals Geoffrey Hinton waarschuwen, dat het té snel gaat. Of te vér? Hij is niet alleen want ook vorige maand deden meer dan 1000 wetenschappers een oproep in een open brief met de vraag om het onderzoek naar AI even te pauzeren. Big Tech en neoliberalisme pauzeren nooit.

Het invoeren van elke nieuwe technologie roept altijd vragen op. Klassieker, maar OK. Dat is iets wat we doorheen de geschiedenis zien. De komst van het internet, de komst van de computer, de komst van de telefonie, van de wagen, van de stoomtrein, noem maar op. Allemaal uitvindingen die onze wereld grondig veranderd hebben, maar ook voor best wat onrust hebben gezorgd. Dat zien we met AI nu ook gebeuren. Vergoelijkend, alsof ook dit wel zal overwaaien. Ik vrees dat de AI-hype nog veel schade kan veroorzaken eer het zover is.

En net zoals we in wagens na een tijdje veiligheidsgordels hebben ingebouwd (wat te hoge snelheid niet belemmert), zal dat ook bij nieuwe toepassingen van AI moeten (?) gebeuren. En wie gaat dat doen gebeuren? Om de risico's te beperken. Om er ook verstandiger mee om te gaan. Zoals met militair wapentuig? Dat zullen we vooral allemaal moeten leren de komende jaren. Maar AI stoppen of vertragen, dat zie ik niet snel gebeuren.

Tom Van de Weghe – Expert AI VRT NWS

Het bijbehorende filmpje, waarin AI-specialist Tom Van de Weghe meer duiding geeft over AI (en dat doet hij prima, populariserend zonder dat het te veel opvalt), zegt hetzelfde als de kadertekst hierboven, maar bereikt mogelijk meer mensen (want wie leest nog?). Ik kan mij niet van de indruk ontdoen dat de media een grote rol spelen in het maatschappelijk accepteren van (en dus niet reageren tegen) problematische ontwikkelingen als de AI-race.


4 – Een AI-pionier maakt zich zorgen

Een interview met die andere peetvader van AI, Yoshua Bengio, verscheen in dezelfde periode in De Standaard, op 1 juli '23. Het originele artikel: Ik heb de gevaren van AI niet ernstig genoeg genomen; mijn bespreking van 18 juli '23 vind je hier.


5 – Tegen Big Tech bestaat geen tegenmacht

Hieronder de filering van een interview met Daron Acemoglu. Ik had ChatGPT een samenvatting laten maken, maar dat was niet in staat om de interessantste details mee te nemen (allicht een gevaar van elke samenvatting).

Ja, de marktmacht van AI zal nog verontrustender zijn dan die van big tech en regels dringen zich op. Maar omdat voor het eerst niet alleen arbeiders bedreigd worden, is het hoog tijd om het eens over de toekomst van al die creatievelingen en kenniswerkers te hebben, vindt econoom Daron Acemoglu. 'Niet alle automatisering is een bron van vooruitgang.'

Annelien De Greef, De Standaard, 12 augustus 2023

Zieners

Hoe kunnen we de radicale veranderingen begrijpen die onze wereld ondergaat? In de reeks 'Zieners' zoeken we houvast en inspiratie bij vooruitziende denkers.

In deze aflevering: Daron Acemoglu (55), de Turks-Amerikaanse econoom die al dertig jaar onderzoek doet rond politieke economie aan het Massachusetts Institute of Technology. In 2012 werd het boek Why nations fail, dat hij samen met James Robinson scheef, een bestseller. Hij onderzoekt erin waarom sommige staten rijk zijn en andere arm en hamert op het belang van sterke instellingen. Onlangs kwam zijn boek Power and progress uit over de uitdagingen van automatisering en artificiële intelligentie. Acemoglu werd in 1967 in Istanbul geboren als enig kind van Armeense ouders. Hij doctoreerde aan de London School of Economics en kreeg in 2005 de John Bates Clark Medal voor de beste Amerikaanse econoom jonger dan 40. De prijs, die in het verleden naar economen als Esther Duflo (1972>2010), Joseph Stiglitz (1943>1970) en Milton Friedman (1912>1951) ging, wordt gezien als een opstapje naar een Nobelprijs. (adg)

Het gesprek met Daron Acemoglu loopt meteen mis. De econoom zit achter zijn computer in zijn kantoor aan het Massachusetts Institute of Technology (MIT) als we hem vertellen dat we de eerste vraag gewoon bij ChatGPT plukten. De Turks-Amerikaanse econoom deed veel onderzoek naar het economische succes van staten en zocht uit waarom landen arm of rijk zijn. Maar de laatste tijd onderzoekt hij vooral de economische gevolgen en gevaren van artificiële intelligentie. De ijsbreker voor het interview die een algoritme aandroeg (verwarrende zinsconstructie; bedoeld wordt "de eerste vraag"), is tenenkrullend lang en droog – een vraag over de uitdagingen van AI in de toekomst – maar de professor rolt niet met zijn ogen zoals we hoopten. Hij lacht en zegt doodleuk: 'Dat is geen slechte vraag.' Omdat we nog niet klaar zijn om door een robot vervangen te worden, gooien we het gesprek meteen over een andere boeg. Het is altijd goed om eerlijk te zijn over het gebruik van ChatGPT, wetende wat dat kan aanrichten.

Acemoglu is niet van de ivoren toren. Hij spreekt en tweet graag over Turkse verkiezingen of de economische blunders van Erdogan en schakelt vlot tussen analyses over China en over de VS. Hij ziet het snel als er nieuws is waarmee hij zijn wetenschappelijk werk kan verkopen. Zo benadrukt hij het belang van de stakingen in Hollywood (door werknemers in de filmindustrie) om zijn punt over de gevaren van automatisering (d.m.v. AI) te maken. De stakingen zijn niet alleen een kwestie van geld, ze zijn ook een aanklacht tegen AI als existentiële bedreiging. De bedreiging van creatieve jobs door creatieve AI wordt ineens uitvergroot tot het existentiële. De angst is helemaal terecht, vindt Acemoglu. Wanneer is angst terecht? Eerder dit jaar schreef de Amerikaanse zakenbank Goldman Sachs dat AI bij een kwart van alle banen mensen door robots zal kunnen vervangen (voorbarige extrapolatie?). Goldman Sachs zal wel een zakelijke reden gehad hebben om dat te schrijven. De grote verandering, zegt Acemoglu, is dat het niet gaat om bandwerk of 'bullshitbaantjes', maar om goedbetaald werk. (1) Gebrekkige aspectscheiding: ook goed betaald werk kan een bullshitbaantje zijn. (2) En nog één: AI en robots is niet hetzelfde. Artificiële intelligentie kan op allerlei manieren ingezet worden; de vervanging van mensen door mensachtige robots is nog iets heel anders. De beide worden te gemakkelijk vermengd.  

Waarom vindt u de stakingen in Hollywood zo belangrijk?

'Omdat ze de kiem van een revolutie in zich dragen. Wat er gebeurt, lijkt op de acties van de Amerikaanse arbeiders die in de jaren 30 de fabrieken van General Motors lamlegden. Dat was cruciaal om werkomstandigheden van arbeiders te verbeteren bij de massaproductie in autofabrieken. Op dat moment ontstonden voor het eerst sterke vakbonden in de VS. Hij suggereert dat naar aanleiding van de Hollywoodstakingen iets gelijkaardigs zou kunnen gebeuren. De strijd in Hollywood gaat over cruciale vragen. Mag je algoritmes loslaten op series als Seinfeld of The office en een computer nieuwe afleveringen laten maken? Wie heeft daar dan de rechten op en wie verdient eraan? Terechte vragen, moeilijke antwoorden. De scenarioschrijvers zijn goed georganiseerd en machtig. In de VS is er geen vakbond van pakweg boekhouders of financieel analisten (maar bv. wel de WGA voor scenaristen, en de SAG-AFTRA voor acteurs). Ik denk dat het heel aannemelijk is dat AI veel zal veranderen voor wie in de kenniseconomie werkt. Waardoor kennis in menselijke vorm zal verdwijnen. Ze weten niet waar ze aan beginnen. Het probleem is dat niemand de stem van de kenniswerkers vertegenwoordigt. Het probleem is meer nog dat Big Tech die kennis wil beheersen; als je daar even bij stilstaat word je er niet goed van. Het zegt alles dat op het moment dat Amerikaanse beleidsmakers zich eindelijk zorgen begonnen te maken over AI, ze alleen maar gingen praten met de top van de technologiebedrijven zelf. Dat zijn ook de aanstokers. Als de stakingen lukken, kan dat veel voor kenniswerkers in heel het land betekenen. Als ze mislukken, vraag ik me af wie in de toekomst nog een vuist zal kunnen maken?' Correcte redenering, lijkt mij. Maar wie is tegenwoordig nog goed georganiseerd en machtig? Vakbonden verliezen hun greep op de werkende maatschappij, omdat het ondergrondse neoliberalisme sterker is. Het artikel is in augustus 2023 geschreven; blijkbaar was het conflict in oktober 2023 opgelost, na 5 maanden staking. Afspraken betreffende A.I.:
– Geen vervanging: AI mag niet worden gebruikt om scenaristen te vervangen of hun werk te automatiseren.

– Menselijke creativiteit: er is een nadruk gelegd op het belang van menselijke creativiteit in het schrijfproces.
– Gebruik van AI: als AI wordt gebruikt in het creatieproces, moet dit op transparante wijze gebeuren en moet het werk van scenaristen als basis dienen.
Je kan hieruit niet bepaald concluderen dat A.I. uit Hollywood geweerd wordt, hoewel dat de aanleiding was voor de staking. In feite blijft alles mogelijk, zoals het trainen van AI op grafisch mensenwerk (waarbij een opt-out weinig of geen verschil maakt; die training is natuurlijk al lang gebeurd, en ont-trainen kan niet). Ik vermoed dat de stakers zich hebben laten inpakken door de andere toezeggingen, nl. hogere salarissen, betere arbeidsvoorwaarden, streamingcompensatie, royalties, gezondheidszorg en pensioenen. Kiem van een revolutie? In geld gesmoord, vrees ik.

U zegt dat beleidsmakers alleen maar praten met big tech, maar is dat niet onvermijdelijk? AI is ingewikkelde materie en de kennis zit bij de bedrijven.

'De grootste experts werken inderdaad bij de bedrijven. De VS hebben de laatste dertig jaar amper pogingen gedaan om digitale technologie te reguleren (of iets anders…), dan kun je niet verwachten dat er veel kennis is bij de overheid. Het stoort me dat technologiebedrijven voortdurend herhalen dat alleen zij al die fantastische technologie begrijpen en dat media dat discours overnemen. Alstublieft! Daardoor lijkt het onbegonnen werk om AI te reguleren en moeten we er maar op vertrouwen dat ze zichzelf regels zullen opleggen. Dat ziet ge van hier. In de VS kwam er na de Tweede Wereldoorlog een beweging op gang onder leiding van figuren als Ralph Nader (de goeroe van de consumentenrechten, red.) die het opnam tegen de machtigste bedrijven van het moment. Zonder die strijd waren veiligheidsgordels in wagens nooit verplicht geworden of zou er vandaag van kwaliteitscontrole voor geneesmiddelen geen sprake zijn. Tegen big tech bestaat geen tegenmacht.' Hoe groot moet je zijn om tegen Big Tech op te kunnen? Het Amerikaans Congres is niet eens groot genoeg; zie AI Moratorium.

Acemoglu hinkt voortdurend en moeiteloos tussen heden en verleden. Zo koppelt hij de recente ramp met de duikboot (de Titan) die op weg was naar het wrak van de Titanic aan de strijd van journaliste Ida Tarbell tegen de marktmacht van Standard Oil van vorige eeuw. De rode draad: journalisten ­laten zich te snel meeslepen in spannende verhalen over nieuwe technologie en avontuurlijke ondernemers. Zo lapte de eigenaar van de duikboot alle regels aan zijn laars, maar werd hij daar nooit echt op aangesproken. 'Te veel journalisten raakten betoverd door de techbonzen. Ze begonnen de sector te volgen met de belofte om kritisch te zijn, maar ze werden al snel gehypnotiseerd door Elon Musk en Mark Zuckerberg en begonnen uit hun hand te eten. Hetzelfde geldt voor beleidsmakers en academici. Stel je voor dat Ida Tarbell verblind was geworden door Standard Oil of John D. Rockefeller?' Vreemde paragraaf. De rode draad zou zijn dat journalisten, beleidsmakers en academici (en allicht ook influencers?)(en dan hebben we de belangrijkste opiniemakers wel gehad) zich te snel maten meeslepen in spannende verhalen. Uiteraard. Alles wat beweegt, en wat de mens beweegt, trekt aandacht, en de kritische zin is in verval. Een normale mens zegt over de Titan en Elon Musk "ze zijn zot", maar het lijkt wel alsof geen kat nog luistert naar een normale mens, inderdaad verblind als we zijn door de-horizon-achterna-journalistiek. Het verhaal van Tarbell onderstreept de nood aan goede onderzoeksjournalistiek. Uit Wikipedia: "Tarbells grootste obstakel was noch haar geslacht, noch Rockefellers tegenstand, maar eerder het vak journalistiek zoals dat aan het begin van de twintigste eeuw werd beoefend". Dit was 1904, dus dat probleem is er altijd al geweest, en dan zie ik ook geen verband met de lotgevallen van de Titan.

Tarbell was een pionier van de onderzoeksjournalistiek. Het boek dat ze over de oliereus schreef, zette wetgevers in Washington aan het werk. Standard Oil werd uiteindelijk opgebroken en viel uiteen in bedrijven als BP en Exxon. Vandaag komt ook de marktmacht van big tech almaar meer in het vizier. Eindelijk, vindt de econoom. Maar van het opdelen van Big Tech zie ik nog geen begin.

Bij zijn kritiek hoort een kanttekening. Acemoglu waarschuwt voor het tomeloze enthousiasme over technologie, maar hij is geen technofoob. Hupsakee. Wie denkt in grijstermen moet zich altijd verdedigen tegen zwart/wit adepten. Tegelijk is dit ook een truc van Big Tech: wie een beetje kritisch denkt wordt al snel bij de tegenstanders weggezet. En je mag niet tegen zijn, want Big Tech gaat het klimaatprobleem oplossen dat het zelf mee veroorzaakt. Ammehoela. Dat kan moeilijk anders na dertig jaar aan een gerenommeerde academische instelling als het MIT. Hij wil vooral waarschuwen dat niet elke automatisering ook vooruitgang is. Dat je in de supermarkt tegenwoordig vaak zelf je inkopen moet scannen, verschuift het werk van de werknemer naar de klant. Het is een besparing op werknemers, er ontstaan geen nieuwe banen, en winkelen wordt er niet goedkoper door. Het is automatisering die niet in het voordeel van werknemers of klanten maar van de managers werkt. Zijn bezorgdheid: dat met nog meer automatisering door AI straks alleen de bazen rijker en machtiger zullen worden. Straks? De afgelopen twee, drie decennia zal hij bedoelen…

U hamert er sterk op dat automatisering ongelijkheid versterkt.

'Met mijn collega Pascual Restrepo kwam ik vorig jaar in een studie tot de conclusie dat de stijgende ongelijkheid in de Amerikaanse lonen sinds de jaren 80 in 50 tot 70 procent van de gevallen veroorzaakt werd door automatisering. Al vier decennia dus… Daardoor zijn de lonen van Amerikanen zonder diploma er sinds de jaren 80 op achteruitgegaan als je rekening houdt met de inflatie, wat fel afsteekt tegen de loonstijgingen voor Amerikanen met een diploma. En de exorbitante rijkdom van grote en kleine CEO's. Het onderwerp "(overmatige) rijkdom" wordt uitvoerig besproken in het boek Limitarisme. Digitale technologie is in de VS een motor van ongelijkheid geweest. Er kwam een automatisering op gang die geen nieuwe banen voortbracht. Daar komt nog bij dat een klein kransje ­bedrijven de laatste jaren bergen geld verdiende. Elon Musk en Jeff Bezos zijn de allerrijksten ter wereld. Het geld is aan de top blijven kleven, maar de ongelijkheid onder werknemers is enorm gestegen.'

Leert de geschiedenis ons niet dat eerdere grote automatiseringsgolven de economie deden groeien?

'Automatisering bracht economische groei, maar het ging niet automatisch en de motor sputterde ook. Automatisering zou de productiviteit doen toenemen, waardoor de welvaart stijgt en iedereen een graantje kan meepikken (ook een bedenkelijke theorie). Dat is ook nu de belofte. Door AI zullen we enorme sprongen vooruit maken, er komt een tijd van overvloed voor iedereen (voorbarige extrapolatie), zelfs als er eerst veel destructie op de arbeidsmarkt plaatsvindt (is al bezig). De hype wordt mee aangeblazen door gerespecteerde opiniemakers. Kijk naar The Economist (economisten staan aan de verkeerde kant van het probleem). Elke week staat er wel een groot artikel in het magazine waarin de klagers over AI worden weggezet als "luddieten" (een verwijzing naar de beweging die in de 19de eeuw tegen de industrialisering streed door weefmachines te vernielen, red.). Het begint voorspelbaar te worden.' De zwart/wit-techniek in actie.

Dat treft, ik wilde u een kop uit The Economist voorleggen: 'Robots bedreigen minder banen dan handelaars in angst beweren.' U bent een handelaar in angst.

'Zie je, daar zijn de labels weer: handelaars in angst, luddieten … '

Om terug te komen op de stakingen in Hollywood. De laatste keer dat de acteurs het werk neerlegden was in de jaren 80. Toen streden ze tegen de komst van … de videocassette. Dat doet toch een beetje grinniken?

Het is zeker zo dat er in het verleden al eens onterecht angst was voor het onbekende, maar door waarschuwingen over automatisering zo weg te wuiven, mis je het punt. Zwart/wit redeneringen leiden alleen tot polarisatie, nooit tot oplossingen. In het verleden liep het toch ook altijd goed af, is het argument. Maar het is belangrijk om nogmaals te onderstrepen dat het nooit automatisch ging. Neem de omwentelingen in de landbouw: tussen 1850 en 1940 ging 50 procent van het werk in die sector in de VS verloren. Machines en tractoren vervingen massaal de handen op het land. Daardoor ging toen de productiviteit inderdaad omhoog, bovendien kwam er veel werk in de plaats. Er was innovatie, er ontstonden nieuwe kantoorbanen, diensten, inspectie (er mag wel eens onderzoek gedaan worden naar de redenen voor de nood aan inspectie…), noem maar op. Hetzelfde gebeurde in de autofabrieken in de 20ste eeuw. Maar het is niet zeker dat met de komst van AI alles volgens dat scenario zal lopen (voorbarige extrapolatie is meestal aantrekkelijk, maar helaas ook voorbarig). Om schokken op te vangen, brak er bovendien een tijdperk aan van vakbonden en meer regulering door de overheid. In de jaren 80 is die architectuur ideologisch afgebroken door politieke leiders als Margaret Thatcher of Ronald ­Reagan (zie de neoliberale strekkingen Thatcherisme en Reagonomics). We hebben nu een heel nieuw kader nodig. Dus ik geloof er niet in dat alles vanzelf in orde zal komen, integendeel. Ik vrees dat de noodzaak om het neoliberalisme af te bouwen los staat van de omgang met AI. Als we dan neoliberalisme gaan aanpakken omwille van de gevaren van AI, gaat dat ook niet werken. De sterkte van neoliberalisme is de ondergrondse werking, niet gekoppeld aan bepaalde personen of politieke stromingen of specifieke technologieën, wel verbonden met de kleine kantjes van de mens. Zelfs een aanval op Big Tech, dat gedijt op neoliberalisme, zal daar weinig aan veranderen. Limitarisme is een mogelijke aanpak.

Zijn uw zorgen inherent aan AI zelf, of is het gewoon bezorgdheid om gelijk welke technologie?

'Ik vind dat we de verschillen niet moeten overdrijven, we kunnen nog altijd veel leren uit het verleden. Maar het is wel zo dat de snelheid en de grote schaal waarop AI zaken kan veranderen, anders zijn. Bovendien worden nu ook voor het eerst niet alleen arbeiders maar ook kenniswerkers in het vizier genomen (onder schot?). Als we erin slagen om AI in hun voordeel te laten werken, hen bij te staan en productiever te laten worden, dan is dat een goede zaak. Maar als we hen massaal zonder werk laten vallen, zou dat een ramp zijn.' Het is weer de efficiëntie die de aandacht krijgt: als bedrijven met meer AI en minder mensen kunnen werken zullen ze dat allicht ook doen (het zijn geen liefdadigheidsinstellingen, maar misschien zouden ze dat net wél wat meer mogen zijn?). De effectiviteit wordt weer vergeten: draagt het gebruik van AI wel bij tot de doelen? Als je dan de kwaliteit van ChatGPT en co bekijkt valt dat te betwijfelen.

Wordt het moeilijker om AI te beteugelen nu er ook een geopolitieke strijd aan de gang is tussen landen om zo snel mogelijk zo ver mogelijk te staan? Uiteraard. Internationale concurrentie is een oorzaak van veel wereldproblemen. China wilde AI strenger reguleren, maar heeft onlangs ­beslist om dat toch niet te doen omdat het geen achterstand wil oplopen. Hupsakee. En maar warmteproducerende datacentra bijbouwen.

'Je hoort voortdurend dezelfde argumenten over waarom AI zogezegd niet gereguleerd kan worden, zoals "Als je het doet, slacht je de kip met de gouden eieren en steekt China je voorbij" of "De ontwikkelingen gaan zo snel dat je er bij voorbaat aan bent voor de moeite". Maar als het zo snel gaat, is dat net een reden om regels op te leggen. Voilà. De EU bewijst bovendien dat bedrijven hun valiezen niet pakken als je strenge regels oplegt. Dat de GDPR-regels (rond de bescherming van gegevens, red.) erdoor kwamen en dat techbedrijven zich eraan houden, is behoorlijk indrukwekkend, ondanks de mankementen aan die wetgeving. Ook China heeft regels opgelegd. Amerikaanse beleidsmakers moeten de Europese en Chinese collega's dankbaar zijn. Natuurlijk hebben jullie (Europeanen) fouten gemaakt, maar we (Amerikanen) kunnen veel leren van jullie experimenten op het vlak van regulering.' Zou er toch iets bewegen?

Nu u het over China hebt: in Why nations fail schreef u dat een land economisch niet succesvol kan zijn als het politiek niet succesvol is (wat dat ook moge betekenen). Het Chinese model was daarom onhoudbaar. Tien jaar later is het land veel machtiger en sterker. Hebt u uw mening moeten bijstellen?

'Neen. Om te beginnen omdat het niet het doel van het boek was om voorspellingen te doen. Het klopt dat de economische groei van China sinds het boek uitkwam sterk en snel gestegen is, maar stilaan zie je toch ook de barsten in het model. Je ziet ook rapper wat je wíl zien. Volgens het boek zou de middenklasse door de economische groei rijker worden en daardoor ook meer politieke eisen gaan stellen die destabiliserend zouden zijn voor het regime (voor zover dat regime de eisen van de middenklasse belangrijk vindt). Daardoor zou het regime groei en innovatie temperen, wat niet gebeurde. Sinds Xi Jinping aan de macht kwam, bleef het land economisch groeien, maar namen de aanvallen op de middenklasse wel toe (het zijn de eisen die getemperd worden). Ik sta nog altijd achter wat ik toen schreef; vroeg of laat botst het want dat kun je niet blijven doen. Alleen geef ik toe dat AI en de surveillancestaat die China stilaan wordt het verhaal kunnen veranderen. Hoewel ik niet geloof dat het land richting 1984 gaat. Daarvoor zou het volk de repressie moeten internaliseren en zelfs geen dissidente gedachten meer dénken. Dat is niet wat er gebeurt. Echt niet? Met al die 'sociale' media? Ik zie het bij de Chinese studenten die naar de VS komen. Er zijn er genoeg die ondanks al het hersenspoelen heel goed beseffen wat er in hun land gebeurt, maar hun stem niet verheffen omdat hun familie nog in China is. Die toestand kan niet blijven duren.' Echt niet?

In Why nations fail, waarin u sterke instellingen cruciaal noemde (terwijl kapitalisten die net bestrijden; zie hier), leken de VS het ijkpunt voor de wereld. Gideon Rachman, journalist van de Financial Times, schreef toen al in een recensie dat er veel manieren waren om een mislukte staat te worden, maar dat 'de zelfgenoegzame aanbidding van een disfunctioneel politiek systeem' er ­zeker een van was. Hij had het over de VS.

'Hij had gelijk.'

Niemand kon toen voorspellen dat Donald Trump president zou worden. We weten intussen hoe dat liep. Hebt u de Amerikaanse instellingen overschat?

'Het was een vergissing om ze te vertrouwen. Ik dacht dat ze beter opgewassen ­waren tegen een aanval op de democratie, want die was zeker in de maak. Uiteindelijk was er wel protest en veel rechters deden wat ze moesten doen, maar de aanval van Trump was ook gewoon slecht voorbereid en het probleem is dat dat in de aanloop naar 2024 aan het veranderen is.'

Zijn de Amerikaanse instellingen sterk ­genoeg om Trump II te overleven?

'Ik denk niet dat ze sterk genoeg zijn. Neen, dus. Maar uiteindelijk is Trump gelukkig niet de beste doodgraver van de democratie. Het kan nog erger, dus moeten we ons niet zo veel zorgen maken? Hij is in die mate polariserend dat hij zijn eigen oppositie opwekt. Da's maar te hopen. Maar los daarvan denk ik wel dat zijn aanhangers terechte grieven hebben. Iedereen heeft terechte grieven. Nu worden die te snel weggezet als machinaties of constructies van politieke strategen. We moeten de klachten ernstig nemen.' Politiek is een struikelblok voor welzijn.


6a – Zonder fysica geen ChatGPT, lijkt Academie te zeggen: Nobelprijs Fysica gaat naar twee grondleggers AI-revolutie

Met John Hopfield en Geoffrey Hinton eert de Nobelprijs voor de Fysica twee grondleggers van de AI-revolutie. Hoezo fysica? Tja, een Nobelprijs voor computerwetenschappen is er niet.

Dominique Deckmyn, De Standaard, 8 oktober 2024

"Deze twee Nobel-laureaten hebben tools uit de fysica gebruikt om methodes te ontwikkelen die de basis vormen voor de krachtige machinelearning van vandaag." Dat voert de Koninklijke Zweedse Academie voor Wetenschappen aan als motivatie om de Nobelprijs voor de Fysica toe te kennen aan John Hopfield en Geoffrey Hinton. Zonder fysica geen ChatGPT, lijkt de Academie te zeggen. Dat zie ik niet. (1) Fysica speelt een grote rol bij elektronica en dus bij computers, maar generatieve AI is een software toepassing die weliswaar draait op elektronica, maar zelf wel gebaseerd is op wiskunde, te beginnen met matrixrekenen. ChatGPT: "Generatieve AI maakt gebruik van matrixrekenen op verschillende manieren, zoals bij het trainen van neurale netwerken, het genereren van data, en het toepassen van technieken voor dimensie-reductie en optimalisatie. Matrixvermenigvuldiging en andere matrixoperaties vormen de kern van de wiskundige structuur van veel AI-algoritmen, inclusief die voor generatieve modellen". Zie ook GAN, VAE, SVD en PCA. (2) Probleempje: er is evenmin een Nobelprijs voor wiskunde (dat Nobel een wrok koesterde tegen de Zweedse wiskundige Mittag-Leffler die zijn vrouw zou hebben afgepakt is niet bewezen). Om de heren dan toch maar te plezieren hebben ze fysica genomen, dat het dichtst in de buurt komt. Het Nobel-comité staat blijkbaar sterk achter de keuze voor Hinton.

De twee namen zijn dan ook enigszins verrassend. Hinton (76), verbonden aan de universiteit van Toronto, wordt hier dan wel "geclaimd" door de fysica, hij is neuropsycholoog en computerwetenschapper. Voor zijn cruciale rol in de ontwikkeling van AI won hij in 2018 de Turing Award – een prijs die soms wordt omschreven als de 'Nobelprijs voor computerwetenschappen'. Met een vergelijkbaar bedrag, overigens, gesponsord door Google…

John Hopfield (91), verbonden aan de Amerikaanse universiteit Princeton, is wél een fysicus. Maar zijn naam is dan weer veel minder bekend in de wereld van AI. Dat kan de indruk wekken dat hij deze gedeelde prijs vooral krijgt om het bruggetje tussen AI en fysica te kunnen maken.

Maar volgens Ellen Moons, lid van het Nobelcomité, hebben de twee laureaten "fundamentele concepten uit de statistische fysica (??; toepassing van statistiek in fysica lijkt mij evengoed wiskunde) ingezet om artificiële neurale netwerken te ontwerpen die werken als associatief geheugen en patronen vinden in grote hoeveelheden data". Neurale netwerken spelen bovendien een grote rol in natuurkundig onderzoek, zegt ze. Ja, dat zal wel; in ander onderzoek ook, maar ge moogt dat niet omdraaien hé. Anders hadden ze evengoed de Nobelprijs geneeskunde kunnen toekennen.

Neurale netwerken

Machine learning is een tak van de artificiële intelligentie waarbij algoritmes (en met name artificiële neurale netwerken) worden gebruikt om automatisch patronen af te leiden uit data.

Artificiële neurale netwerken, computerprogramma's die zijn geïnspireerd op de werking van de menselijke hersenen, doken al op in de jaren 50. Maar aanvankelijk waren hun prestaties beperkt (wegens te weinig rekenkracht). Pas na tal van grote doorbraken (in hardware en software) konden ze leiden tot de huidige generatieve AI-systemen, zoals ChatGPT.

Eén van die doorbraken was de ontwikkeling van recurrente neurale netwerken, die gegevens kunnen verwerken in verschillende stappen. Hopfield publiceerde in 1982 over het Hopfield netwerk, een vorm van recurrent neuraal netwerk dat in staat is om gegevens te onthouden en onder meer beelden op te slaan en te reconstrueren. Daarbij maakte hij gebruik van zijn achtergrond in de fysica: hij inspireerde zich op de mathematische (!) beschrijvingen van de spin van atomen.

Hinton bouwde, samen met anderen, voort op dat Hopfield netwerk met de Boltzmann Machine (1985), ook een vorm van recurrent neuraal netwerk.

Stroomversnelling

Pas veel later, in de jaren 2000, toonden Hinton en zijn medewerkers aan hoe krachtig die neurale netwerken werkelijk konden zijn als je er maar massaal veel computerkracht en data tegenaan gooide – machine learning werd toen deep learning.

Terwijl de eerste artificiële neurale netwerken bestonden uit een platte laag met enkele tientallen (virtuele) neuronen, stapelden Hinton en de zijnen talloze dergelijke lagen op elkaar (vandaar 'deep'), geholpen door de enorme vooruitgang die de computertechnologie intussen had gemaakt. De ontwikkeling van AI, die in een sukkelstraatje was beland, kwam door deep learning (eerder door toename van rekenkracht; "deep learning" is daarop gebaseerd) plots in een stroomversnelling terecht.

Voor die cruciale doorbraak kreeg Hinton in 2018 de Turingprijs, die hij deelde met twee voormalige medewerkers, Yann LeCun (nu aan het hoofd van de AI-divisie van Meta) en Yoshua Bengio. De drie worden vanwege hun ontdekkingen ook wel de 'godfathers van AI' genoemd.

Risico's

In mei 2023 haalde Hinton de wereldwijde pers toen hij ontslag nam bij zijn toenmalige werkgever, Google, om "vrij te kunnen spreken over de risico's van AI" (wat impliceert dat bij Google niet vrij kan gesproken worden over risico's; een bijzonder kwalijke toestand als je het mij vraagt, gezien de impact van Google). Sindsdien geldt hij als een van de belangrijkste kritische stemmen, en waarschuwt hij voor de overhaaste ontwikkeling van de technologie.

In een telefonisch interview dat hij gaf nadat was bekendgemaakt dat hij de Nobelprijs kreeg, zei Hinton nog eens dat AI een enorme impact zal hebben op de samenleving. "Het zal vergelijkbaar zijn met de industriële revolutie. Maar dit keer is het een revolutie waarbij de mens niet wordt overtroffen in fysieke kracht maar in intellectuele vaardigheid. We hebben daar geen enkele ervaring mee." Hij waarschuwde ook opnieuw voor "mogelijke slechte gevolgen" als de technologie aan onze controle zou ontsnappen. Het eerste probleem daarbij is de basisregel van elk systeem: rommel in is rommel uit. Generatieve AI is gebaseerd op grote hoeveelheden online informatie, waarvan de betrouwbaarheid niet gegarandeerd is. Tweede probleem is dat AI, door de complexiteit, dingen zou gaan doen die we niet meer begrijpen; met een onbeperkt geloof in AI zitten we dan op het varken.

De Nobelprijs is dit jaar goed voor een geldbedrag van 11 miljoen Zweedse kronen, omgerekend bijna 970.000 euro. De bekroonde laureaten krijgen elk een deel van dat bedrag. Vorig jaar ging de Nobelprijs Fysica naar drie natuurkundigen voor hun onderzoek naar extreem korte (laser)lichtpulsen.

Fysica is traditioneel het tweede domein dat aan bod komt tijdens de Nobelprijsweek, na Geneeskunde maandag. Die prijs ging naar de ontdekkers van microRNA. Woensdag wordt de laureaat voor de Nobelprijs Chemie bekendgemaakt. Donderdag volgt Literatuur en vrijdag Vrede. De Nobelprijs Economie sluit volgende week maandag de reeks van aankondigingen af.

6b – Nobelprijs Fysica gaat naar grondleggers van artificiële intelligentie en zelflerende computers: "Zonder hen was er nu geen ChatGPT"

De Nobelprijs voor Natuurkunde gaat dit jaar naar de grondleggers van artificiële intelligentie. De Amerikaanse natuurkundige John Hopfield en de Brits-Canadese computerwetenschapper Geoffrey Hinton hebben de basis gelegd voor machine learning, computers die zelf slimmer kunnen worden.

Wim De Maeseneer, VRT NWS, 08 oktober 2024

Dit artikel voegt weinig toe aan dat van De Standaard, je kan dit ook overslaan, en doorgaan naar de epiloog.

John Hopfield en Geoffrey Hinton krijgen de Nobelprijs voor Natuurkunde voor hun "fundamentele ontdekkingen en uitvindingen die machine learning mogelijk maken met kunstmatige neurale netwerken", zo stelt het Nobelcomité. Een hele mond vol, maar wat betekent het?

Kunstmatige neurale netwerken bootsen de structuur van onze hersenen na. Een computer kan daardoor zelf patronen leren te herkennen en verbanden leggen zonder dat een programmeur vertelt hoe hij dat precies moet doen. Net zoals het in onze hersenen gebeurt. De computer traint zichzelf via enorme hoeveelheden data.

Hopfield bedacht een methode om patronen in informatie op te slaan en te reconstrueren, als een soort geheugen. Hij baseerde zich daarvoor op de (statistische) natuurkunde. Hinton werkte daarop voort en ontwikkelde een nieuwe manier die het mogelijk maakt dat een computer ook zelf patronen leert te herkennen, bijvoorbeeld in afbeeldingen.

"Hopfield en Hinton zijn absoluut de grondleggers van de AI (LeCun? Bengio?). Zonder hen was er nu geen spraakherkenning of ChatGPT", zegt professor Steven Latré, hoofd AI van het onderzoekscentrum Imec. "Zij hebben al in de jaren 80 de fundamenten gelegd."

"De computers waren toen nog niet snel genoeg om te doen wat ze vandaag doen, maar het algoritme en de software bestond toen al. Het is pas in 2010, toen de computers wel krachtig genoeg werden, dat we echt die doorbraak in AI hebben gezien. Dankzij de uitvindingen van Hopfield en Hinton."

Bezorgd om risico's van AI

Opvallend: Geoffrey Hinton, die 10 jaar lang bij Google heeft gewerkt, waarschuwde vorig jaar dat AI kan leiden tot "slechte dingen" en "nogal gevaarlijke situaties" als het in handen komt van de verkeerde mensen (of van mensen die blindelings geloven in AI). Hij vreest ook dat de wedloop tussen technologiebedrijven om AI zo snel mogelijk verder te ontwikkelen niet meer te stoppen is. Het neoliberalisme blijkbaar ook niet. Ooit moet dat toch botsen?

"Niet veel mensen geloofden dat AI ooit slimmer zou kunnen worden dan mensen. De meesten dachten dat dat veel te ver ging. Ik ook. Ik dacht dat het nog 30 jaar zou duren, 50 jaar, of nog langer. Maar dat denk ik nu dus duidelijk niet meer", zei hij toen.

Ook het Nobelcomité verwijst naar die bezorgdheid. "Mensen hebben de verantwoordelijkheid om de technologie op een veilige en ethische manier te gebruiken, in het voordeel van de mensheid", zegt de Belgische professor Ellen Moons, die voorzitter is van het Nobelcomité voor Natuurkunde. Ze zijn de zeven hoofdzonden wééral vergeten.

John Hopfield is intussen 91 jaar, Geoffrey Hinton is er 76. Ze winnen samen 11 miljoen Zweedse kronen, zo'n 970.000 euro. (1) Jammer dat die mensen zo'n bedrag winnen als ze het niet meer nodig hebben. (2) Ook jammer dat de waarde van iemands opinies afneemt met de leeftijd. Oeps…


7 – Epiloog

Wat hebben we nu aan deze analyse? Wat nemen we mee uit de fileringen?

1 – De revolutionairen van de artificiële intelligentie – De voorstelling van Geoffrey Hinton, Yann ­LeCun en Yoshua Bengio als drie pioniers van AI. Dat intussen zowel Hinton als Bengio kritiek hebben geuit op de ontwikkelingen rond AI is interessant, maar de reikwijdte daarvan is onduidelijk; een reactie van Big Tech heb ik nog nergens gezien. Wel duidelijk is dat de status van AI een gevolg is van heel wat ontwikkelingen in de laatste decennia.

2 – Experts roepen onderzoek naar artificiële intelligentie halt toe – Een open brief van het Future of Life Institute (IFL), een "non-profitorganisatie die streeft naar het sturen van transformatieve technologie in de richting van leven en weg van grootschalige risico's, met een focus op existentiële risico's van geavanceerde kunstmatige intelligentie" (beetje esoterisch ambitieus), pleit einde maart '23 voor een pauze van 6 maanden in het onderzoek naar geavanceerde AI. Hier zitten een paar vreemde aspecten aan. (1) Ik kan mij niet inbeelden dat dit kan werken, of gewerkt heeft. Om welk onderzoek ging het, welk AI-lab zou bereid geweest zijn te pauzeren, wetende dat concurrenten dat niet doen, en wie zou dat controleren? Anderzijds is deze brief wel een meer dan terechte waarschuwing voor wat er fout gaat in de ontwikkeling van AI; hij drukt stevig op enkele zere plekken, kijk maar na. (2) Ik vind het al even vreemd dat grote namen als Steve Wozniak en Elon Musk dit ondertekenen, twee heren die net grote belangen hebben bij de race tegen de tijd en tegen elkaar, en dus niet bij een pauze. Een soort van green-washing, als je het mij vraagt, en een geniepige methode om de goede bedoelingen van IFL te dwarsbomen.

3 – Hinton heeft kritiek op AI – Terwijl de open brief een realistische omschrijving geeft van de gevaren van AI, is de kritiek van Hinton veel minder helder. Het verhaal over "kopieën die van elkaar leren" is vaag, zo niet in de formulering van Hinton, dan wel in die van de reporter. Dat Hinton een metafoor voor AI-ontwikkelingen ziet in de transformatie van een rups naar een vlinder (de rups verandert in een soep, en daaruit groeit een vlinder), doet bovendien de vraag rijzen of zijn leeftijd hier geen rol speelt…

4 – AI-pionier Bengio maakt zich zorgen – Een andere 'peetvader', ongeveer dezelfde bezorgdheden, maar duidelijker voorgesteld.

5 – Tegen big tech bestaat geen tegenmacht – Bedenkingen van de Turks-Amerikaanse econoom Daron Acemoglu over de macht van Big Tech, naar aanleiding van de staking van scenaristen in Hollywood. Een realistische kijk, in zekere mate overeenkomend met de aanklacht in de open brief, hoewel meer praktisch gericht (maar daarom nog niet effectief). Door de interview-vorm blijkt wel hoe je je als expert dikwijls moet verdedigen tegen een publieke opinie. Acemoglu benadrukt ook dat er nood is aan goede onderzoeksjournalistiek, in plaats van betovering door techbonzen, (zoals hier).

6 – Nobelprijs Fysica voor Hopfield en Hinton – Wat Hopfield en Hinton presteerden voor AI, is duidelijk wiskunde, en geen fysica. Dus moet het Nobel-comité wel grondige redenen gezien hebben voor het toekennen van de Nobelprijs fysica aan de beide heren (die van wiskunde bestaat niet). De bijdrage van Hinton aan AI is waardevol, en van Hopfield is mij geen kritiek op AI bekend, dus moet ik veronderstellen dat de kritiek van Hinton op AI geen rol heeft gespeeld in de toekenning, hoe graag ik dat ook geloofd had.

Nog meer samengevat:
– Hinton en co zijn m.b.v. wiskundige methoden blijven werken aan de theoretische ontwikkeling van AI, ondanks een gebrek aan performante computers om de theorie in de praktijk om te zetten.
– Computercapaciteit is geleidelijk toegenomen. Sinds een paar jaar (2020?) probeert Big Tech daar de vruchten van te plukken, met veel marktgeweld, en zodanig doortastend (inclusief kerncentraleplannen om aan de nodige energie te geraken) dat enkele peetvaders het niet meer vertrouwen. Zij vrezen dat AI de mensheid zal overnemen.

Ik denk niet dat we voor dat laatste bang moeten zijn. Eerder wel voor een overname van de overheid door Big Tech. De kersverse verkiezing van Trump (met een niet-verkozen Elon Musk in zijn vaarwater) is alweer een stap in die richting. Schaamte is de wereld uit.