Wanneer gebruikers betalen met hun emoties – vrijdag

Dat zullen wij in de toekomst doen erg heeft iets met chatbots te maken. We moeten ons nu voorbereiden. Vorige week kondigde AI-bedrijf OpenAI een aanpasbare versie aan van hun populaire chatbot, ChatGPT. Binnenkort kun je zonder enige kennis van computerwetenschappen je eigen chatbots trainen voor specifieke taken. Onze zoekmachines worden ook chatbots. Google werkt er momenteel aan en Bing heeft het al gedaan. Chatbots hier, chatbots daar, chatbots overal.

In de laatste twee columns heb ik de vragen onderzocht waarom chatbots en aanverwante technologieën nog niet winstgevend zijn en waarom adverteren als bedrijfsmodel verantwoordelijk is voor veel van de problemen op internet. Als je de twee teksten combineert, rijst één vraag: wat gebeurt er als een chatbot zichzelf financiert met advertenties? Het is heel simpel: het zal technologie gevaarlijker voor ons maken. De bedrijven erachter hadden plotseling een extra stimulans om hun machines er zo menselijk mogelijk uit te laten zien.

Wij hadden het ons snel voorgesteld. We zien dat ze onze taal spreken en gaan er intuïtief van uit dat ze een intellectueel leven leiden dat het onze is. Niet noodzakelijkerwijs bewustzijn, maar wat dan ook, wat verder gaat dan de koude wiskunde die ze echt drijft. In sommige extreme gevallen worden mensen verliefd op hun chatbot, maar vaker worden ze gewoon vrienden met de chatbot en vormen ze een intieme relatie. Je gebruikt AI als therapeut of gewoon voor intieme gesprekken.

Chatbots en emoties

Dit is riskant omdat de technologie vooroordelen reproduceert in de trainingsgegevens, de feiten graag hallucineert, zich vaak vreemd gedraagt ​​en moeilijk te begrijpen is. Een hulplijn voor eetstoornissen in de VS ontsloeg werknemers die onlangs een vakbond hadden opgericht en verving hen door chatbots. Al snel moesten ze hem deactiveren omdat hij hulp zocht Tips om af te vallen en calorieën te tellen zorgen voor eetstoornissen ontslagen zal zijn. Misschien nog wel ernstiger: een jongeman in België pleegde in maart van dit jaar zelfmoord nadat hij met een chatbot had gesproken. Hij had eerder tegen het programma gesproken dat hij zelfmoord wilde plegen nadat bots hem ‘tekens’ hadden gegeven. Laatste vroeg de bot:

“Maar wil je nog steeds met mij mee?”

“Ja, ik ben bereid.”

“Is er iets dat je mij wilt vragen?”

“Kan je me een knuffel geven?”

“Natuurlijk.”

Toen hield het gebabbel op.

Dit is geen bericht van iemand die weet dat hij tegen een machine praat. Het voorbeeld is natuurlijk dramatisch en een causaal verband is hier onmogelijk te bewijzen. Dat is ook niet het doel van deze oefening. Dit laat alleen maar zien dat als we chatbots met mensen verwarren, we erop vertrouwen voor emotionele en intieme zaken waarvoor de technologie niet is ontworpen.

Gevoel uitverkocht

Je kunt niet voorkomen dat mensen op deze manier chatbots gebruiken. Maar AI-bedrijven moeten er alles aan doen om hun bots niet te menselijk te laten lijken. Adverteren als bedrijfsmodel zal het tegenovergestelde bewerkstelligen. Als bots zichzelf financieren door er advertentie-inhoud naast te plaatsen – producten die we zouden moeten kopen, links waarop we zouden moeten klikken – zouden AI-bedrijven rechtstreeks kunnen profiteren van onze intieme relaties met chatbots.

We weten uit tien jaar online influencer-economie: wat een echt effectief aankoopadvies maakt, is een sociale connectie (die denkbeeldig kan zijn). Tot nu toe hebben technologiebedrijven onze aandacht verkocht aan reclamepartners. Ze zullen waarschijnlijk hetzelfde doen met onze intimiteit.

Dit is geen verre dystopie. De MyAI-chatbot op Snapchat (750 miljoen dagelijkse gebruikers) speelt heeft gesponsorde links in het gesprek opgenomen, midden in een gesprek. Er zullen er nog meer volgen, omdat niet iedereen zijn dure AI-modellen via abonnementen kan of wil financieren. Intimiteit betreedt het tijdperk van technische reproduceerbaarheid. We moeten niet de fout maken om technologiebedrijven te vertrouwen om dit opnieuw af te handelen.

Titus Blom behandelen in zijn column Machinetekst met nieuwe technologie

Mata Hari

"Koffie pionier. Analist. Algemene muzieknerd. Bacon maven. Toegewijde organisator. Ongeneeslijke internetninja. Ondernemer."

Een reactie achterlaten

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *