In sneltreinvaart dringt kunstmatige intelligentie (AI) onze levens binnen, maar dat gaat lang niet altijd vlekkeloos. Zo ligt in Nieuw-Zeeland een populaire kook-app onder vuur omdat het levensgevaarlijke recepten zou fabriceren. De ontwikkelaar van de app betreurt de hetze en belooft verbetering.

De app, gemaakt door de in Nieuw-Zeeland bekende supermarktketen Pak ‘n’ Save, is bedoeld als stimulans om overgebleven restjes in de koelkast een tweede leven te geven. Dit om onnodige verspilling tegen te gaan, een trend die in Nieuw-Zeeland de laatste tijd zorgen baart.

Klanten van de supermarkt wordt bij het opstarten van de nieuwe app gevraagd om verschillende ingrediënten aan de lijst toe te voegen. De app, die wordt aangestuurd door AI, genereert vervolgens automatisch een volledig recept, voorzien van vrolijk commentaar om het koken aangenamer te maken.

Achter die vrolijkheid gaat echter een sinistere onderlaag schuil, blijkt uit diverse klachten op sociale media waar The Guardian als eerste over bericht. Op het moment dat gebruikers verder experimenteren en meer ingrediënten toevoegen, begint de app op hol te slaan en komt het met de meest eigenzinnige recepten op de proppen. Van een mocktail met bleekwater, sandwiches met lijm tot wentelteefjes met terpentijnsmaak en gebakken aardappelen met antimuggenspray.

De Nieuw-Zeelandse politieke commentator Liam Hehir plaatste volgens de Britse krant de meest in het oog springende creatie: een zogeheten ‘aromatische watermix’, een chemische reactie waaruit het dodelijke chloorgas ontstaat. De app prijst het gerecht aan als ‘de perfecte niet-alcoholische drank om je dorst te lessen en je zintuigen te verfrissen’. Gebruikers wordt geadviseerd het koud te serveren en vooral te genieten van ‘de verfrissende geur’. Inname van chloorgas kan echter grote gevolgen hebben. Ernstige longschade, in het ergste geval zelfs de dood.

Pak ‘n’ Save reageert bij The Guardian teleurgesteld dat ‘een kleine minderheid’ van de gebruikers een fout in de techniek heeft gevonden en nu de app misbruikt om het ‘op ongepaste wijze en niet voor het beoogde doel te gebruiken’. Wel trekt het bedrijf het boetekleed aan en belooft beterschap. Zo wordt de controle door moderatoren aangescherpt en wordt er prominent gewaarschuwd dat de recepten niet door mensen zijn bedacht.

Ook valt te er te lezen dat er geen garantie kan worden gegeven dat de gerechten daadwerkelijk geschikt zijn voor consumptie. ,,U moet uw eigen oordeel gebruiken voordat u vertrouwt op of een recept maakt dat is geproduceerd door Savey Meal-bot”, meldt de supermarkt in een verklaring.

Protest bij ministerie
Over de toepassing van kunstmatige intelligentie in de maatschappij is de laatste tijd veel te doen. De techniek is veelbelovend en boekt al fantastische resultaten in bijvoorbeeld de medische sector, maar tegelijkertijd zijn er ook ethische bezwaren. Om deze reden komt komende vrijdag in Nederland een groep mensen samen bij het ministerie van Binnenlandse Zaken onder de naam PauseAI.

Zij roepen de regering op zich in te spannen voor een pauze van de ontwikkeling van ‘krachtige en mogelijk gevaarlijke kunstmatige intelligentie’. ,,Wetenschappers trekken aan de bel: AI kan het einde betekenen van de mensheid”, zegt Joep Meindertsma, directeur van softwarebedrijf Ontola en oprichter van PauseAI. ,,AI-bedrijven racen vooruit en gokken met al onze levens, terwijl regulering hopeloos achter blijft.”

Topmannen van de diverse AI-bedrijven kwamen in mei bij elkaar op het Witte Huis voor een ontmoeting met vicepresident van de Verenigde Staten Kamala Harris. Harris uitte toen al haar zorgen dat AI een bedreiging kan vormen voor de veiligheid, inbreuk kan maken op maatschappelijke rechten en privacy en het vertrouwen van mensen in de democratie kan ondermijnen. Zij riep overheden, bedrijven en andere maatschappelijke partijen op die uitdagingen samen aan te pakken.

De afgelopen maanden hebben veel bedrijven nieuwe AI-systemen aangekondigd of gelanceerd. Zo kan ChatGPT van OpenAI op verzoek van gebruikers hele teksten schrijven. Microsoft bouwde dat systeem in in zijn zoekmachine Bing. Google kwam daarop met een eigen vergelijkbaar systeem met de naam Bard. Maar al die systemen zijn getraind om woorden op een logische manier achter elkaar te zetten en niet om de waarheid te vertellen. Dat leidt tot zorgen bij bijvoorbeeld toezichthouders en overheden.