Wat als AI de mens inhaalt?

Er gebeurt vanalles rond artificiële intelligentie, en het lijkt mij niet allemaal proper. Wat mij nog het meest verontrust is de discussie rond superintelligentie, of artificiële algemene intelligentie (AGI), waarbij zelfs sprake zou zijn van een intelligentieoorlog tussen de mens en artificiële intelligentie, als we een spreker op de Trends Summer University geloven (wat we uiteraard niet doen). Ik vraag mij niet af of de mens AI inhaalt (ik denk van niet, maar dat is uiteindelijk een discussie waar we zonder een paar degelijke aspectscheidingen niet uit zullen geraken), maar wel waarom de techsector aan de ene kant zoveel inspanningen doet om AI te promoten, en aan de andere kant zo nadrukkelijk wijst op de gevaren van superintelligentie. Hier klopt iets niet.

(1) Trends publiceert er een artikel over, met in de titel de vraag "Wat als AI de mens inhaalt?". Ik kan het fileren niet laten. Om (mijn) ergernis te mijden zou je dit stuk kunnen overslaan, maar dan mis je ook enkele kritische opmerkingen (waarvan je zelf mag bepalen of je ze terecht vindt).

(2) Het artikel in Trends verwijst ook naar het Global AI Moratorium, de vraag van experten om de ontwikkeling van AI te stoppen. Dit initiatief is eveneens een kritische blik waard; ik probeer het te rijmen met de rol van diezelfde experten op de AI-markt. Zie deel 2.

(3) En regelmatig doet iemand uit de techsector (zelden of nooit uit de praktijk) een bewering over de geweldige mogelijkheden van ChatGPT, waarbij ik mij telkens afvraag of ze die zelf wel getest hebben. Ik verdring mijn weerzin, en waag mij aan een analyse. Is ChatGPT echt zo'n geweldige tool? Zie deel 3.


1 – Wat als AI de mens inhaalt? 'Een totale verschuiving en we hebben er nog niet over nagedacht'

Christophe Charlot, redacteur Trends, 02-10-2023

Is artificiële intelligentie belangrijker dan pensioen- en belastinghervormingen? De technologie is alomtegenwoordig en roept heel wat vragen op over de mogelijke impact ervan op het bedrijfsleven (en de rest van de maatschappij). "We staan voor een ware intelligentieoorlog (jawadde) tussen de mens en artificiële intelligentie", klonk het in een van de debatten op de Trends Summer University.

Artificiële intelligentie (AI) ligt op ieders lippen. Zeker sinds OpenAI en zijn intelligente chatbot ChatGPT de technologie in de schijnwerpers hebben gezet. ChatGPT kan gestructureerde – en behoorlijk indrukwekkende – antwoorden geven op uiteenlopende vragen van gebruikers. Maar ChatGPT heeft ook aangetoond dat het heel wat deelnemers aan het examen voor de Amerikaanse balie en een aantal universiteitsexamens kan aftroeven (zouden die deelnemers ook hallucineren?). Veel waarnemers (astrologen?) zien de opkomst van de generatieve technologie (ze bedoelen generatieve artificiële intelligentie) als een bron van grote opschudding in de bedrijfswereld. Vreemde zin! Waarom "zien als"? Er is ofwel grote opschudding ofwel niet; daar kan je bezwaarlijk een opinie over hebben. Volgens hen is de tijd gekomen om een heleboel managers te vervangen. (1) Opletten met dergelijke constructies. Om één of andere reden (misschien door slechte ervaringen, van hemzelf of anderen) wil de auteur beweren dat het tijd is om "een heleboel" managers te vervangen, maar hij laat die bewering liever over aan anderen; tot daar toe. Er is echter geen direct verband tussen het feit dat "veel waarnemers" de opkomst van generatieve technologie zien als een bron van opschudding in het bedrijfsleven, en hun opinie omtrent de vervanging van managers. Deze twee zinnen lijken mij daarom net bedoeld als bron van opschudding. (2) Managers vervangen door wat? ChatGPT? Ik denk dat de kracht van ChatGPT hier toch wat overschat wordt; zie deel 3. (3) De vervanging van een heleboel managers lijkt mij een nuttig idee, maar dat zou wel eens kunnen tegenvallen, omdat de vaardigheid van managers om hun positie veilig te stellen wordt onderschat. (4) Een overschot aan ineffectieve managers is een gevolg van managerialisme, dat uiteraard zal blijven bestaan, ook als je managers vervangt, en al helemaal als je ze vervangt door AI. (5) Overigens, is intelligentie, al is die dan artificieel, wel het juiste woord hier? Ik vind nog altijd dat AI niks met intelligentie te maken heeft, maar door het artificiële intelligentie te noemen creëer je bij een massa mensen net het idee dat het wél om intelligentie gaat. De stap naar het volgende idee, dat AI ons kan voorbijsteken, is dan uiteraard niet zo groot meer. Serieus vlag-en-ladingprobleem, als je het mij vraagt, en anders ook.

Het is dan ook niet verwonderlijk dat generatieve AI aan bod kwam op de Trends Summer University in Knokke begin september (waar ze het over een ware intelligentieoorlog hadden…). Elk jaar brengt het event Belgische CEO's samen om actuele onderwerpen te bespreken (en de markt te versterken in hun voordeel; dit mechanisme wordt goed uitgelegd in Waarom de superrijken de wereld niet zullen veranderen). Waarom is AI belangrijker dan pensioen- en belastinghervormingen? Boerenbedrog. AI wordt door de techsector opgedrongen, maar hervormingen zijn het werkterrein van de overheid. Hier is geen vergelijking mogelijk. Niettemin wordt hier gesuggereerd dat AI belangrijker is; mogelijk wordt impliciet bedoeld dat de overheid beter geld zou besteden aan AI. Zou de sector wel willen… En hoe kunnen onze bedrijven er een enorme kans van maken? Lees: hoe kunnen ze AI inzetten om nog meer winst te maken? Dat zijn de grote vragen over de nieuwe technologie. Zelden zo'n kortzichtige visie gezien (3x); puur managerialisme.

Naar aanleiding van de publicatie van zijn boek La guerre des intelligences à l'heure de ChatGTP vindt de Franse "expert" Laurent Alexandre dat er actie moet worden ondernomen: "We staan voor een ware intelligentieoorlog tussen de mens en AI. Flauwe kul. Het duurt dertig jaar om een ingenieur op te leiden (nog grotere flauwe kul), terwijl AI snel (onbetrouwbaar?), oneindig (energievretend) en gratis (zolang het duurt) is", begon hij. "Menselijke intelligentie daarentegen is niet gratis, gaat in staking, besteedt veel tijd aan rookpauzes en neemt vrij om te eten." Hij is een kapitalist? Had ik niet gedacht van een aanhanger van La France Insoumise (volgens de Engelse Wikipedia). De expert (chirurg/uroloog van opleiding?! en stichter van de bedenkelijke medische website Doctissimo) maakt zich zorgen. Hij wijst er ook op dat hoewel AI-experts het er niet over eens zijn of de technologie al dan niet een risico vormt voor de mens (doet ze zeker wel, maar niet omdat ze intelligent zou zijn, wel omdat ze menselijke domheid versterkt), "er een consensus bestaat over het feit dat AI binnen 1.000 of 2.000 dagen de mens zal inhalen". Consensus? Bij wie dan wel? Misschien is de tijd gekomen om de kwakzalvers te vervangen. Vanaf dat moment zal "onze cognitieve marginalisatie onvermijdelijk zijn" (AI maakt ons dommer, dat klopt alvast wel), vervolgt Laurent Alexandre. "Dat betekent niet dat de toekomst (?) ons niet nodig heeft (als consumenten? als goedkope arbeidskrachten? of godbetert zelfs als IT-ers?). Maar we moeten erover nadenken in onze gezinnen, in onze bedrijven en in onze landen. Het is een totale verschuiving en we hebben er nog niet over nagedacht." (1) Het is wat het is. Als de afgelopen vijftig jaar economisten en politiekers wat beter hadden nagedacht hadden we nu geen klimaatprobleem gehad. (2) Even enkele aspecten scheiden: het kwakzalvergehalte van de man staat los van het idee dat AI de mens zal inhalen.

Breed scala

Voor John Abel, de directeur van Google Cloud (dat garen spint bij elke nood aan online data-opslag, en dus ook bij AI), "bevindt de technologie zich nog in een opkomende fase (mogelijk zelfs prematuur?). Een opkomst waar we getuige van zijn en die leiders moeten begrijpen", benadrukte hij. Dat snijdt aan twee kanten. Leiders zouden die opkomst inderdaad goed moeten begrijpen, maar niet noodzakelijk in de visie van Google. Alle panelleden waren het erover eens dat de technologische evolutie revolutionair is (een begrijpelijke maar te betreuren gemeenplaats). "Een van de grote veranderingen is dat AI-technologieën vroeger een zeer specifieke taak oplosten, maar nu hebben we AI-modellen die een breed scala van sterk verschillende taken oplossen", merkte Laurent Sober, medeoprichter en CTO van de start-up Radix. We hebben tegenwoordig generatieve AI, zoals ChatGPT, die blijkbaar revolutionair verbeterd is. Maar dat is het dan ook. De rest bestond al langer, en zal niet verdwijnen omdat generatieve AI de media overspoelt. AI-modellen die sterk verschillende taken oplossen? Nooit van gehoord; eerder weer een geval van voorbarige extrapolatie. "Dat is transformatief (zoals de meeste voorbarige extrapolaties), zowel voor bedrijven als het onze die AI-oplossingen aanbieden (kassa, kassa), als voor bedrijven en consumenten." Wat altijd hetzelfde blijft is dat waarheid minder belangrijk is zodra de kassa belooft te rinkelen.

Als voorbeeld, en om te begrijpen in welke mate generatieve AI in staat is creatieve taken uit te voeren, noemt Marijke Schroos, de CEO van Microsoft Belux, het feit dat we een jaarverslag aan AI zouden kunnen geven en het zouden kunnen vragen om een persbericht en presentatiedia's te produceren. Zouden kunnen…? Zou dit wel waar zijn? Zie deel 3. Dat zou een enorme tijdsbesparing zijn. Tijdsbesparingen door technologie vormen doorgaans een gevaar voor de kwaliteit. Dat verklaart Microsofts interesse in OpenAI, het bedrijf achter ChatGPT, waarin de gigant massaal heeft geïnvesteerd om "niet achterop te lopen op de AI-markt en de tools te implementeren in onze software en onze gebruikers te helpen". Alles voor de verbeterde gebruikerservaring? Of om de concurrentie vóór te zijn en dus meer winst te genereren?

Hoe ontwrichtend het ook mag zijn, AI is goed op weg en kan niet worden tegengehouden. Flauwe kul. Europa is sterk genoeg om maatregelen te nemen, en ontwrichting is nu net wél een goede reden voor beperkingen, maar vanuit de neoliberale hoek zullen die allicht niet komen. Dergelijke beweringen zijn net bedoeld om tegenhouden te vermijden. Jammer dat ze ook werken. Hoewel een aantal experts heeft opgeroepen tot een moratorium op AI (zie deel 2), rijdt de trein al volop. "Het is onmogelijk om AI tegen te houden", zegt Laurent Alexandre (die weer). "We zouden alle macht aan China geven. Oeps. Nog zo'n dooddoener. Internationale concurrentie, geostrategische overwegingen; wat zou het… Hebzucht en machtshonger van de techsector is wat erachter steekt. We zouden ons niet meer afvragen of we Frans of Nederlands moeten leren op school: Mandarijn zou de dominante taal worden. Onnozel. De man heeft een roeping als fantast gemist. Nee, toch niet… Om nog maar te zwijgen over het feit dat de maatschappij niet zou aanvaarden dat de Europese gezondheidszorgsystemen in 2050 op hetzelfde niveau zouden staan als die in Zimbabwe vandaag." Moet er nog zand zijn?

AI, al dan niet generatief, blijkt een steeds belangrijker onderdeel te worden van de gezondheidszorg van de toekomst. AI wordt al langer ingezet bij het interpreteren van medische beelden, maar dokters zijn niet zo gauw werkloos (zie Dokter Robot staat nog niet meteen aan ons ziekbed), en zullen zich trouwens ook niet de kaas van hun brood laten halen (zie Is artificiële intelligentie de heilige graal in de strijd tegen kanker?); iets anders voorstellen is dan ook misleiding. De ongelooflijke capaciteit om gegevens te verwerken en er betekenis uit te halen, maakt AI tot een belangrijke troef bij de diagnose en de behandeling van ziekten. Volgens Laurent Alexandre (die weer) weet AI een miljoen keer meer dan een arts (meer misschien wel, maar daarom nog niet beter; gebrekkige aspectscheiding). Het kan de 20.000 miljard stukjes (…) informatie analyseren die nodig zijn om een tumor te begrijpen. Uit de lucht gegrepen. "Een tumor begrijpen" is overigens wel een interessant idee. Mocht dat kunnen, dan vinden we met behulp van AI misschien nog een remedie tegen het neoliberalisme; zie ook Minder is meer. Met andere woorden: AI wordt essentieel om de levensverwachting van mensen te verhogen (en de pensioenleeftijd dan nog maar eens op te trekken? wie gaat dat anders betalen?) en een remedie te vinden voor ziekten die nu nog ongeneeslijk zijn, zoals de ziekte van Alzheimer. Ik geloof nooit dat de decennialange zoektocht naar genezing van Alzheimer of kanker en andere ziekten nutteloos is, noch dat de oplossingen verborgen liggen in informatie die al op internet aanwezig is, maar niet wordt gevonden omdat we niet intelligent genoeg zouden zijn.

De alarmerende ingesteldheid van Laurent Alexandre lijkt mij duidelijk overdreven. Dat hij in dit Trends-artikel zo ruim aan het woord komt zegt m.i. iets over de beperkte kwaliteit van het artikel. Naar mijn gevoel zijn tegenwoordig de meeste artikelen over AI, sommige direct afkomstig van de techsector, andere van opiniemakers die zich gemakkelijk door een trend laten beïnvloeden, overdreven positief over de voordelen, terwijl ze de nadelen negeren. Gelukkig zijn er ook andere, bijvoorbeeld Het denken van de inktvis. Rare titel, maar interessante inhoud, op basis van een interview met MIT-professor Marvin Minsky (waartegen mannen als Sam Altman en Elon Musk, ook weer naar mijn gevoel, serieus verbleken). Minsky durft AI in een ruimer kader plaatsen, en het vergelijken met de menselijke mentale mogelijkheden. Zeer de moeite van het lezen waard. Overigens ben ik het niet over de hele lijn met hem eens (ook al verbleek ik nu zelf), bv. als hij stelt dat emoties deel uitmaken van onze intelligentie, maar daar niet bij vertelt dat een computer geen emoties kan hebben. Of als hij zegt dat een computer die heel slim is, en die heel complexe problemen kan oplossen, wellicht de noodzaak begrijpt om te overleven (eerder al gezegd: begrijpen is het zwart gat van AI), en dus overlevingsmechanismen zal ontwikkelen. Ik denk terug aan een uitspraak van Hugo Brandt Corstius: "het enige wat een computer nooit zal kunnen is van de apen afstammen". En daar is veel mee gezegd.

Bijwerking 30-08-2024 – In april 2024 kwam een nieuw boek uit van Alexandre, waarover een interview verscheen in Trends. De opinies van de man vormen een extreem voorbeeld van de basale fout "Voorbarige extrapolatie".

AI bij de overheid

Ze ruiken overheidsgeld. Zie ook deel 2. Buiten die kwesties blijft AI veel hoop – en evenveel vragen – voeden bij bedrijfsleiders. ChatGPT, net als Bard van Google en andere AI-oplossingen, houdt de belofte van een enorme (?) productiviteitswinst op talloze (?) gebieden in. Die "andere AI-oplossingen" (op zoek naar problemen…) zijn niet-generatieve AI-systemen; daar heeft de komst van ChatGPT en aanverwanten niets aan gewijzigd. Als die nu ineens méér aandacht krijgen dan voorheen, dan speelt er duidelijk een marketingeffect. OpenAI en co proberen niet enkel de markt van ChatGPT te vergroten, maar meteen ook die van alle AI-systemen, in de hoop een graantje mee te pikken.

Hello Customer, de start-up van Leslie Cottonjé, die deel uitmaakte van het panel op Trends Summer University, is gebaseerd op AI. Het analyseert grote hoeveelheden opmerkingen en feedback om bedrijven betere klantervaringen te helpen creëren. Na een aanvankelijk nogal (?) menselijke benadering (met nogal echte mensen?) deed Hello Customer een beroep op technologieën voor natuurlijke taalverwerking, gevolgd door machinaal leren, waardoor het algoritme "zelf opmerkingen kan categoriseren" (de aanhalingstekens zijn origineel!). Nu kan ChatGPT nog een stap verder gaan en beoordelingen samenvatten om ze beter te begrijpen (begrip is net het zwart gat van AI; alle moeite om iets te begrijpen zal vergeefs zijn, of hoogstens leiden tot fake; dat fake tegenwoordig wijdverspreid is maakt het uiteraard niet eenvoudiger), of zelfs, op lange termijn, om licht te werpen op hoe de gebruikerservaring kan worden verbeterd op basis van de in aanmerking genomen commentaargegevens. "Dat is de volgende stap: dingen kunnen detecteren in de gegevens en met voorstellen en suggesties komen om te reageren", voegt Leslie Cottonjé toe. (1) De volgende versie gaat het weer oplossen: voorbarige extrapolatie. (2) Hello Customer is een typisch IT-bedrijf, dat technologie inzet om klantentevredenheid te meten, en daarmee een probleem probeert op te lossen dat er geen zou moeten zijn. Als een bedrijf zorgt dat zijn processen goed werken, en kwaliteit wordt geleverd aan de klant, dan zijn die vervelende klantentevredenheidsenquêtes nergens voor nodig. Informatie over tevredenheid is overigens waardeloos als het leverende bedrijf er weinig of niets mee doet. Bovendien verliest elk bedrijf dat rekent op informatie uit enquêtes veel van zijn aandacht voor kwaliteit (BPost is een mooi voorbeeld). Klantentevredenheid meten is een systeem van het zevende knoopsgat. En dat wordt dan nog eens geoptimaliseerd met behulp van AI. Beweren ze. Op hoe langer hoe meer fronten wordt geprobeerd de menselijke greep op processen te vervangen door technologie. Dat mag dan voordelig zijn voor de techsector, voor de maatschappij heeft het alleen maar nadelen. (3) Het huidige systeem van Hello Customer categoriseert opmerkingen van klanten die nog geloven in tevredenheidsenquêtes; de andere reageren tóch niet. Vervolgens kan je van die opmerkingen een statistiekje maken, en wat dan? Zoals bij Agile beslissen om de minst voorkomende problemen niet aan te pakken? Elke opmerking zou mogen behandeld worden. (4) Het gaat daar weer over de "gebruikerservaring", een ijl begrip dat ons afleidt van de reële kenmerken van het product of de dienst die wordt geleverd. Zoals aandacht voor CO2 afleidt van warmteproductie. (5) Bijwerking 17-10-2023: iets gelijkaardigs zien we bij het helpdesk drama; AI als oplossing voor alle gevolgen van kortzichtigheid.

Radix, waarvan de belofte is "mensen macht te geven door middel van artificiële intelligentie", maakt gebruik van LLM, de technologie waarop ChatGPT is gebaseerd en die, in een notendop, "de volgende woorden voorspelt", legt Laurent Sorber van Radix uit. Rare paragraaf. Wat doet die hier? Of is dit weer een tekst van ChatGPT, waar het woord "Radix" moest in voorkomen?

Ook de overheid begint stilaan de smaak te pakken te krijgen (huh? wishful thinking?). Nog niet met een echt gebruik van AI (ach?), maar ze gebruikt wel al digitale hulpmiddelen om burgers toegang te geven tot overheidsdiensten. Wat heeft dat te maken met AI die de mens inhaalt? "Om het leven van mensen eenvoudiger te maken, moet België werken aan digitale tools die overheidsdiensten toegankelijker maken voor burgers", zegt Mathieu Michel (MR, broer van), staatssecretaris voor Digitalisering belast met Administratieve Vereenvoudiging (en complexe IT-systemen??). Zolang de staatssecretaris van digitalisering ook die van administratieve vereenvoudiging is gaat er van vereenvoudiging niets in huis komen. "De staat wil alle databanken met elkaar verbinden om ze beschikbaar te maken en diensten te verlenen aan burgers." Tussen [alle databanken met elkaar verbinden] en [diensten verlenen aan burgers] gaapt wel nog een diepe kloof. Maar als je de horizon achterna holt zie je die allicht niet, tot je er zelf in valt. Jammer dat de doorsnee politieker meestal een andere uitdaging vindt vooraleer het zover komt. En "diensten verlenen" komt in veel gevallen neer op controleren. Hoewel die tools nog niet gebaseerd zijn op AI, worden wel de eerste stappen gezet om de technologie te gebruiken. Pure navolging van AI-marketing, als een kip zonder kop. Wie niet meedoet wordt aan de kant gezet. En volgens de staatssecretaris zullen er meer intelligente chatbots beschikbaar komen voor burgers om te converseren met de autoriteiten. Ik wordt er al moedeloos van. Zie ook Systems thinking in the public sector en The tyranny of metrics. Ze schijnen niet te begrijpen dat je overheidsdiensten ook toegankelijker kan maken door de deuren van het stadhuis verder open te zetten, in plaats van ze dicht te gooien.


2 – Global AI Moratorium

In deel 1 hierboven staat dat het onmogelijk is om AI stop te zetten, ook al hebben een aantal experts opgeroepen tot een moratorium tegen grote AI-trainingen, totdat het technische probleem van AI-uitlijning is opgelost. Twee elementen hier.
– Net zoals Altman ChatGPT heeft vrijgegeven, kan Altman ChatGPT ook weer wegnemen. Ze kunnen AI wel degelijk stopzetten, maar ze willen niet, want het schijt geld.
– Het technisch probleem wordt uit de doeken gedaan op de website Global AI Moratorium, die begint met uitspraken van, welja, mensen die je expert zou kunnen noemen, maar van wat? De meeste van die uitspraken zijn interessant genoeg om nader te bekijken. Bij elke uitspraak staat bovendien een link naar meer gedetailleerde uitleg, door de betreffende spreker, over de achtergrond van de uitspraak.
Een grote hoop interessant leesvoer. Ik probeer de essentie eruit te halen.

Sam Altman

CEO van OpenAI, dat ChatGPT and GPT-4 creëerde.
Development of superhuman machine intelligence is probably the greatest threat to the continued existence of humanity.
Dit komt erop neer dat de ontwikkeling van superintelligentie, allicht door de mens, de grootste bedreiging is voor diezelfde mens? Dat moet wel een heel domme mens zijn, of die mens moet zijn bestaan wel erg beu zijn. Bovendien is het creëren van AGI of Artificial General Intelligence niettemin een doel van OpenAI. Volge wie volgen kan.
Zie Machine Intelligence, part 1 en ..part 2.

Jaan Tallinn

Lead investor of Anthropic.
I've not met anyone in AI labs who says the risk [from a large-scale AI experiment] is less than 1% of blowing up the planet. It's important that people know lives are being risked.
Niemand zegt hoeveel mensen hij heeft ontmoet in AI labs die er iets van kennen; hij heeft misschien zelfs nergens naar gevraagd, en dan kan hij dit beweren zonder liegen. Als er werkelijk een kans van 1% of meer zou zijn dat een wereldwijde ramp plaatsvindt, dan is het wel dringend tijd om iets te ondernemen, zou ik denken. Anderzijds, als de planeet explodeert, zijn meteen alle wereldproblemen opgelost, dus misschien is dat niet zo erg. Volgens mij is zijn uitspraak enkel stemmingmakerij.
Zie WTF is happening?

Yoshua Bengio

Deep learning pionier, één van de drie "peetvaders" van AI, en winnaar van de Turing Award.
Rogue (malafide) AI may be dangerous for the whole of humanity. Banning powerful AI systems (say beyond the abilities of GPT-4) that are given autonomy and agency (zeggenschap) would be a good start.
Alles wat malafide is kan gevaarlijk zijn, en sommige malafide praktijken zijn inderdaad gevaarlijk voor de mensheid (bv. drugs verspreiden en virussen loslaten). Bengio zegt daarmee nog niet dat AGI mogelijk is.
Zie How Rogue AIs may arise.

Bill Gates

Microsoft, Gates Foundation.
Superintelligent AIs are in our future. […] There's the possibility that AIs will run out of control. [Possibly,] a machine could decide that humans are a threat, conclude that its interests are different from ours, or simply stop caring about us.
Bill Gates is dus wel gelovig. (1) Hij heeft het over verlies van controle, wat naar ik vrees inderdaad het grootste gevaar is. Het gaat dan wel om controle van de mens op wat het AI-systeem produceert, niet over de controle van de machine over zichzelf (wat een mens trouwens ook niet heeft; soms is dat goed merkbaar). Hallucinaties zijn het voor de hand liggende probleem; de beperkingen van de mens in het detecteren van hallucinaties versterken dat probleem nog. (2) "Its interests", m.a.w. de belangen van de machine, duidt op het geloof in superintelligentie. Mocht er ooit iemand in slagen om een machine interessen aan te praten, dan zou ik in de eerste plaats denken aan hallucinaties, hetzij van de machine, hetzij van de maker (Gates is ook al niet meer van de jongsten). En als machines stoppen met voor de bevolking te zorgen, moeten ze die zorg eerst van iemand geleerd hebben; van de techsector of een neoliberale overheid zal het nochtans niet komen.
Zie The Age of AI has begun.

Opnieuw blijkt taal een raar ding te zijn. "AIs will run out of control" laat zich vertalen als "AI's zullen de controle verliezen". Draai het om: "AI's zullen de controle verliezen" wordt "AI's will lose control". En dat klopt allemaal. Alleen, in de Engels>Nederlands vertaling verdwijnt de betekenis dat de mens de controle verliest over AI's! Met "will run out of control" kan je immers twee kanten uit; ik houd het liever op de invloed van de mens, zo lang dat nog kan… Extra conclusie: vertrouw nooit zonder meer op een automatische vertaling.

Stephen Hawking

Theoretical physicist & cosmologist.
The development of full artificial intelligence could spell the end of the human race.
Niets zegt dat Hawking gelooft in artificiële superintelligentie.
Zie Stephen Hawking warns artificial intelligence could end mankind.

Stuart Russell

Schrijver van het standaard werk over AI, Artificial Intelligence: A Modern Approach, gebruikt in duizenden universiteiten.
If we pursue [our current approach], then we will eventually lose control over the machines.
Russell noemt een veel gebruikt argument: als je systemen creëert die intelligenter zijn dan mensen, individueel of collectief, dan creëer je entiteiten die machtiger zijn dan wij. Voorwaardelijke bewoordingen als>dan zijn bij uitspraken omtrent AI schering en inslag (zouden weefgetouwen al uitgerust zijn met AI?), om werkelijke opinies te verbergen.
Zie Stuart Russell calls for new approach for AI, a 'civilization-ending' technology.

Elon Musk

Grote baas van SpaceX, Tesla, Twitter, …
AI has the potential of civilizational destruction.
Musk gelooft alvast wél in de vernietiging van beschaving. Hij doet ook zijn best.
Zie Elon Musk Says A.I. Has the Potential to Destroy Civilization.

Demis Hassabis

CEO van Google DeepMind.
I would advocate not moving fast and breaking things. […] When it comes to very powerful technologies—and obviously AI is going to be one of the most powerful ever—we need to be careful. Not everybody is thinking about those things. It's like experimentalists, many of whom don't realize they're holding dangerous material.
Opvallend: (1) reclame voor een zeer performante technologie, en (2) het afwijzen van verantwoordelijkheid als er iets fout gaat (want we hebben gewaarschuwd).
Zie DeepMind's CEO Helped Take AI Mainstream. Now He's Urging Caution.

António Guterres

Secretaris-Generaal VN.
AI poses a long-term global risk. Even its own designers have no idea where their breakthrough may lead. I urge [the UN Security Council] to approach this technology with a sense of urgency. Unforeseen consequences of some AI-enabled systems could create security risks by accident. Generative AI has enormous potential for good and evil at scale. Its creators themselves have warned that much bigger, potentially catastrophic and existential risks lie ahead. Without action to address these risks, we are derelict in (verzakend aan) our responsibilities to present any future generations. Moest er nog zand zijn?
Dit is een kernachtige samenvatting van het probleem, die mij voldoende lijkt om effectieve acties aan de gang te zetten. Maar misschien overschat ik de macht van de secretaris-generaal van de Verenigde Naties? Heeft de markt de macht al volledig overgenomen?
Zie YouTube (ik ben geneigd uit het frequent schuiven van de pagina's door Guterres, af te leiden dat hij vérziend is). Guterres struikelt bijna over het woord ChatGPT, maar zegt verder wel dat the High Commisioner for Human Rights has expressed alarm over evidence that AI can amplify bias, reinforce discrimination, and enable new levels of authoritarian surveillance (!). En dan volgt een hele reeks bedreigingen van het mogelijk malafide gebruik van AI. Als je nog niet overtuigd bent van de nadelen van AI voor de maatschappij, dan leer je hier alles in 12 minuten. Ook de voordelen worden beschreven, waarbij ik onwillekeurig moet denken aan de wonderzalf die ons moeder altijd in huis had.

Zhang Jun

VN Ambassadeur voor China.
The potential impact of AI might exceed human cognitive boundaries. To ensure that this technology always benefits humanity, we must regulate the development of AI and prevent this technology from turning into a runaway wild horse. […] We need to strengthen the detection and evaluation of the entire lifecycle of AI, ensuring that mankind has the ability to press the pause button at critical moments.
Zorgen dat AI niet op hol slaat is niet de hele remedie, maar momenteel wel het belangrijkste aspect, denk ik. Zijn oplossing, het proces binnen AI evalueren, en ingrijpen als het fout gaat, is een ander paar mouwen. Maar ik vermoed dat de Chinese overheid zelf er hoe dan ook wel voor zal zorgen dat AI geen overheidsbelangen gaat schaden.

Het betoog

De rest van de tekst is verrassend. Enkele uittreksels.

We do not know how the resulting AI systems work, or what their goals are. – (1) Dat de makers niet begrijpen hoe hun eigen systeem werkt is onzin; AI is geen alchemie. (2) Het doel kan vast en simpel zijn (bv. haal alle gekwetste appels van de transportband), of variabel en complex (bv. maak een samenvattende presentatie van een jaarverslag), maar het is wel altijd bepaald door de mens achter het systeem. Dat een AI-systeem eigen doelen zou definiëren gaat er bij mij niet in.

We have very little insight into what the algorithms that we find actually do. – Dat klopt. Neurale netwerken functioneren door in de leerfase een massa getallen te bepalen en op te slaan, en die in de productiefase te gebruiken, zonder dat aan die getallen een specifieke betekenis kan toegekend worden. In een beperkter AI-systeem als een solver, bv. voor het optimaliseren van een productmix, is het proces eenvoudiger, wiskundig definieerbaar, en daardoor iets doorzichtiger voor de gebruiker. De actuele berekeningen zijn evenmin te volgen (je zou alle variabelen in elke stap kunnen printen, maar daarmee krijgen ze nog geen begrijpelijke betekenis), maar de doelfunctie wordt door de gebruiker zelf opgesteld. Idem voor generatieve AI: de doelfunctie (de zgn. prompt) wordt door de gebruiker zelf geformuleerd. Ik veralgemeen, met voorbedachte rade: elk AI-systeem werkt met een gekend doel. Als een expert beweert dat het doel van een AI-systeem onbekend is, dan is er iets goed fout, hetzij met het AI-systeem, hetzij met de expert, grootheid of niet.

The default path to a superhuman AGI is a path to a system with alien goals that have no place for human values. – Vertaald: het standaardpad naar een bovenmenselijke AGI is een pad naar een systeem met buitenaardse doelen waar geen plaats is voor menselijke waarden. En de tekst bevat nog sterkere uitspraken, bv. dat het natuurlijke gevolg is dat iedereen (letterlijk) sterft als neveneffect van AI die alle beschikbare bronnen op kosmische schaal gebruikt. Dit is van de pot gerukte bangmakerij, als voorbereiding op de verdekte knaller die volgt.

Without international coordination to regulate potentially (?!) dangerous AI training runs and prevent AGI from being created before the technical problem is solved (tijdsdruk!), many researchers expect humanity to go extinct (kwakzalvers genoeg). We welcome the progress we observed over the recent months (kassa, kassa), but it's still too slow (??), and we hope (!) to increase engagement with the problem (middelen!) and technical understanding (instemming) among policymakers. – De experten vragen om internationale coördinatie, met uitsterving van de mensheid als mes op de keel, om hun eigen verantwoordelijkheid te reduceren. Ze verwelkomen de gemaakte vooruitgang, omdat die geld oplevert, maar ze hopen de inzet (van openbare financiële middelen) en het technisch inzicht (de goedkeuring) van beleidsmakers (dus de overheid) te verhogen. Ik denk dat dit zowat de kern van de moratoriumboodschap is. Als je dit niet gelooft: vooral zelf lezen en je eigen opinie vormen.

Op de homepagina kan je via "Click to open AI Alignment Explainer…" een stuk tekst openklikken dat het "technisch probleem" van alignering beschrijft, dat naar verluidt dringend moet opgelost worden. Dit bestaat uit twee delen: je wil een doel vinden dat je veilig aan een AI-systeem kan geven (uitwendige alignering), en je wil een AI-systeem vinden dat dit doel kan verwezenlijken (inwendige alignering). Het klinkt allemaal theoretisch, en hier en daar denk je "huh??", en lijken de beweringen sterk op voorbarige extrapolatie (waar we zelf ook iets van kunnen; zie Elk bedrijf wordt een AI-bedrijf). Het lijkt er daarom eerder op dat die detaillering vooral bedoeld is om potentiële lezers af te schrikken. Er staan ook tamelijk veel grammaticale fouten in, mogelijk met opzet, om het verwarrend effect nog te versterken (maar da's misschien ingegeven door mijn slecht karakter). Dit moratorium is een poging om geld en goedkeuring te krijgen van beleidsmakers (tot en met de secretaris-generaal van de VN!) voor het oplossen van een technisch probleem waarvan de complexiteit hun denkvermogen overstijgt, met als dreigement het uitsterven van de mensheid.

De bespreking (de eerste van negen) achter gesloten deuren met de Amerikaanse senaat, op 13-09-2023, met o.m. Jensen Huang (NVIDIA, producent van AI chips), Sundar Pichai (Google), Mark Zuckerberg (Meta), Sam Altman (OpenAI, maker van ChatGPT), Bill Gates (Microsoft), Elon Musk (Tesla, Twitter, …), Alex Karp (Palantir, en kompaan van Musk), Arvind Krishna (IBM) en nog wat andere grootheden, mag in datzelfde licht gezien worden: de beleidsmakers mee in het bad trekken. Als je in het achterhoofd houdt dat het de techsector is die de maatschappij overneemt (hier met ChatGPT als voet tussen de deur), en niet AI op zich, dan vind je zeer interessante berichtgeving bij bv. CNN Business en The Washington Post (duidelijk verschillend, maar even duidelijk gelijkaardig van strekking; zelf lezen). Letterlijk uit CNN: one unnamed attendee called for spending tens of billions (!) on "transformational innovation" that could unlock AI's benefits; vreselijk wollige taal, maar het gaat toch weer over geld (en ook hier zijn de aanhalingstekens origineel). Of dit: other areas of agreement reflected traditional tech industry priorities, such as increasing federal investment (!!) in research and development as well as promoting skilled immigration (!!) and education. Slavenhandel is nooit ver weg. Overigens was niet iedereen gelukkig met de meeting; de commentaar van senator Josh Hawley is treffend: I don't know why we would invite all the biggest monopolists (!) in the world to come and give Congress tips on how to help them (de monopolisten) make more money (!!), and then close it to the public. That's a terrible idea. These are the same people who have ruined social media (!!!). Je kan best zelf het hele CNN-bericht lezen, tenzij je echt niet wil weten hoe belabberd de toestand is…

Dus… Global AI Moratorium? Ammehoela. Dit is een bedekte en schaamteloze vraag om gegarandeerde overheidssteun, inclusief omnium schadeverzekering.


3 – ChatGPT

Presentatie jaarverslag

De CEO van Microsoft Belux, Marijke Schroos, suggereerde hoger dat we een jaarverslag aan AI zouden kunnen geven en het zouden kunnen vragen om een persbericht en presentatiedia's te produceren. Online vind je heel wat jaarverslagen, bv. dat van de VRT 2022. Een jaap van 100 pagina's. Ik doe een poging.

ChatGPT

Je kan ChatGPT direct openen via https://openai.com/chatgpt. Je hebt wel een account nodig, maar dat was te verwachten; ze willen immers weten (en bijhouden) wat je doet. Een dummy e-mailadres opgeven gaat overigens niet helpen, want ze vragen ook een GSM-nummer voor tweefactorauthenticatie; m.a.w. je bent gezien. Je kan ook inloggen met een ander account (Microsoft, Google of Apple), maar daar geldt uiteraard hetzelfde; reken er maar op dat ze aan je accountgegevens kunnen.

Kan ChatGPt een samenvatting maken? Ja, dat lukt, op het eerste gezicht.
– Een eenvoudige methode is de betreffende tekst in de prompt toevoegen tussen aanhalingstekens. Ik kopieer twee pagina's vol tekst uit de PDF, en geef die mee in de vraag naar een samenvatting in 20 regels; de afbeeldingen worden automatisch genegeerd. Ik krijg een samenvatting in 11 regels (tot daar toe), maar ik ben niet geneigd nu te gaan nakijken of dat wel een goede samenvatting is. Als ik dat wel zou willen weten, dan moet ik de inhoud van de samenvatting vergelijken met de inhoud van de hele tekst. Omdat het een test is (en ik gek genoeg ben) doe ik dat toch (zie een volgend blogartikel), maar je kan er donder op zeggen dat meestal het resultaat zonder meer aanvaard wordt. De gevolgen daarvan zijn niet te overzien (en ik ga dus ook geen poging doen om die te beschrijven; denk er zelf eens over na).
– Andere methode: de volledige PDF meegeven. In ChatGPT is dat in de gratis versie niet mogelijk; in de betaalde versie evenmin direct, maar wel via enkele hulpmiddelen; zie hier.

Ik volg ook de suggestie van Schroos, en vraag om een persbericht. Wat eruit rolt lijkt mij onmiskenbaar een persbericht; als niet-journalist zou ik dit zonder meer overnemen, en ik heb geen idee of en wat een journalist daar nog zou aan veranderen. Met andere woorden: met ChatGPT zou ik zelf voor journalist kunnen spelen, met een beperkt risico om ontmaskerd te worden. Met mijn zicht op de weinig kritische ingesteldheid van de meeste IT-gebruikers (waar de sector zeer veel aan te danken heeft) stel ik mij voor dat de meesten het resultaat van ChatGPT zonder meer zullen overnemen, zonder de waarschuwingen op te volgen die in alle hulpbronnen worden vermeld, zoals het degelijk nakijken van het resultaat, en zelfs het checken van de bronnen, om geen auteursrechten te schenden. Twee opmerkingen.
– OpenAI heeft gemakkelijk zeggen; met enkele uitspraken over betrouwbaarheid en auteursrechten maken ze zich ervan af, terwijl ChatGPT niet eens zijn bronnen meegeeft met het resultaat. Daar wordt slechts uitzonderlijk op gereageerd, zoals in ChatGPT is intellectuele diefstal op wereldschaal.
Use it or lose it. Schrijvers van persberichten die ChatGPT gebruiken en zonder meer volgen, verleren het schrijven van persberichten. Elke schrijver die ChatGPT gebruikt om een tekst samen te vatten, verleert het maken van een samenvatting. De structuur van een tekst, zoals die van een persbericht, leer je allicht wel gebruiken, tenminste de versie van ChatGPT, die niet per se ook die van de opdrachtgever is. Maar inhoudelijk omgaan met informatie in een tekst verleer je als je het niet meer doet. Naarmate je meer en meer betrouwt op een tool als ChatGPT, ga je minder en minder zelf nadenken; je gaat handelen als een robot, en speelt daarmee de techsector en het kapitalisme in de kaart. Use it or lose it geldt overigens niet alleen voor individuen die een gebrekkige tool gebruiken, maar ook voor hele klantendiensten. Dit schitterend verhaal toont de gevolgen van de overname van klantenservice door gebrekkige IT-systemen, en de daaruit volgende onbeholpenheid en onmacht van menselijke medewerkers.

De presentatiedia's die Schroos suggereerde zijn blijkbaar moeilijker. ChatGPT kan blijkbaar alleen tekst produceren. Maar je kan wel ChatGPT vragen om suggesties te geven voor figuren, en daar meteen een prompt bij te voegen waarmee je in een andere AI-tool, bv. Midjourney, een figuur kan genereren. Meer uitleg hier. Bronnen genoeg trouwens; zoek bv. online op "how to use chatgpt to make ppt" (tientallen tips), of stel die vraag aan ChatGPT zelf. Je kan ook nog een stap verder gaan, met AI-gebaseerde PPT-generatoren. En dat terwijl PowerPoint presentaties beter niet bestaan hadden; zie Het PowerPoint probleem. Het drama van ongebreidelde digitalisering: effectiviteit raakt bedolven onder efficiëntie. In elk geval: het maken van een presentatie met afbeeldingen is niet bepaald evident.

Bing Chat

Er is een alternatief voor de ChatGPT website, dat ook een verwerking van PDF-documenten eenvoudig maakt, nl. de Bing Chat in de browser Microsoft Edge. Dit kan als volgt (zie hier): open MS Edge, klik Ctrl-O, en selecteer een PDF-document, dat vervolgens geopend wordt; klik dan op het Bing Chat icoon rechts boven; dit opent een paneel met een gelijkaardige werking als ChatGPT. Je kan nu ook weer opdrachten geven, bv. om de PDF-tekst samen te vatten, of details op te vragen uit de inhoud. Wel een interessante methode om een PDF-document te verwerken.

Je krijgt altijd een antwoord, maar niet altijd wat je verwacht, wat o.m. afhangt van de focus van Bing Chat, nl. de actuele webpagina in Edge, of het internet. Na een antwoord krijg je wel enkele mogelijke vragen automatisch voorgeschoteld, waaronder ook de keuze voor pagina of web. In beide gevallen geeft Bing Chat overigens wél zijn bronnen; interessant pluspunt. Op de vraag "geef een inhoudstabel" produceert Bing Chat een soort samenvatting op basis van de bestaande inhoudstafel uit het document; ik vrees dat die opdracht niet correct begrepen is. :-(

Ook opvallend is dat ChatGPT en Bing Chat alleen tekst produceren, eventueel met bullet points, en heel toepasselijk in het lettertype Roboto (dat daar nog eens 28 versies van bestaan is een absurd effect van technologische ontwikkeling). Nummering komt blijkbaar niet voor, evenmin als meerdere niveaus. Op de vraag naar een inhoudstafel kreeg ik letterlijk de hoofdpunten uit de inhoudstafel van het document, met daarachter de inhoud in één zin. Een voorbeeld: "VRT Maximaal: Een overzicht van de bereikcijfers, het marktaandeel en de waardering van de VRT-merken op radio, televisie en online.". Straf gedaan, dat wel. Behalve de eerste letter achter de dubbele punt; in het Nederlands moet dat een kleine letter zijn, in het Engels een grote. Het begin van het einde van de Taalunie.

Het zevende knoopsgat

Het effect van technologie op kennis en gedrag van de gebruikers wordt onderschat, ongeveer zoals het belang van systeemwerking wordt onderschat. Het artikel over het PowerPoint probleem gaat daar dieper op in, bv. met de mening van Donald Norman over de vermeende neutraliteit van technologie:

Technologie is niet neutraal. Technologie heeft eigenschappen die sommige acties vereenvoudigen, en andere bemoeilijken. De eenvoudige worden gebruikt, de moeilijke worden genegeerd. Elk heeft zijn beperkingen, randvoorwaarden en neveneffecten, die eisen stellen aan alles wat ermee interageert, zij het andere technologie, mensen, of de maatschappij. Elke technologie poneert een manier van denken over het gebruik ervan, en over de activiteiten waarbij ze relevant is, een denkwijze die doordringt bij iedereen die ermee in aanraking komt, soms onbewust, soms ongewild. Hoe meer verspreid en succesvol de technologie, hoe groter zijn impact op de gedachtenpatronen van zijn gebruikers, en bijgevolg zijn impact op de hele maatschappij. Technologie is niet neutraal, ze domineert. Nog zand, iemand?

Generatieve AI lijdt evenzeer aan die kwaal. De eenvoudige aspecten (een samenvatting na een druk op de knop) worden gebruikt, de moeilijke (kwaliteit van de samenvatting, schending van auteursrechten) worden genegeerd. Antwoorden van ChatGPT en Bing Chat gaan zonder veel omhaal aanvaard worden, en nog het snelst door de gebruikers die het minst met kwaliteit begaan zijn (die bijgevolg sneller werken dan anderen, en dus meer gaan mogen produceren; ook een nefaste versterkende lus). Perfectionisme wordt meer en meer in de hoek gedrumd. Het aanvaarden van gewoonten die tegen de Taalunie ingaan (zoals een hoofdletter na een dubbele punt) is bijzonder jammer, maar is klein bier vergeleken met het verlies van aandacht voor kwaliteit van informatie in het algemeen. Dat gaat van het zonder meer aannemen van resultaten van imponerende technologie door individuen, tot de aantasting van het hele maatschappelijke weefsel door nepnieuws.

In termen van basale fouten kan ik stellen dat technologische ontwikkeling momenteel een systeem van het zevende knoopsgat is, omdat ze geen rekening houdt met menselijke kenmerken (bv. gemakzucht en afgunst). Maar ik vrees dat de doelen van de techsector en de neoliberale economie (die meer en meer één pot nat worden) meespelen op de achtergrond, en zelfs meer en meer naar de voorgrond komen. Zie bv. Minder is meer, of het nieuwe boek van Bernie Sanders Het is OK om kwaad te zijn op het kapitalisme.

Conclusie

Enkel op basis van het bovenstaande wil ik uiteraard nog geen conclusie trekken. Omtrent de samenvattingen die ik heb opgevraagd, eentje van ChatGPT, een ander van Bing Chat (van dezelfde tekst), heb ik alvast enkele bedenkingen, maar die zal ik verder bespreken bij een meer uitgebreide test; zie ChatGPT onder de loep. Als voorproefje toch al deze teaser, uit de samenvatting van de inleiding uit het VRT Jaarverslag 2022, door ChatGPT:

De publieke omroep bleef marktleider op radio en tv en investeerde in digitalisering, dankzij sterk Vlaams aanbod en innovatieve projecten.

Zoek de fout… En bedenk dan of dit is waar we heen willen.