Kunstmatige intelligentie legt zichzelf uit aan mensen en werpt zijn vruchten af


LinkedIn van Microsoft Corp verhoogde de abonnementsinkomsten met 8 procent nadat het zijn verkoopteam had uitgerust met kunstmatige-intelligentiesoftware die niet alleen klanten voorspelt die het risico lopen te annuleren, maar ook uitlegt hoe het tot zijn conclusie is gekomen.

Het systeem, dat afgelopen juli is geïntroduceerd en in een LinkedIn blogpost van woensdag, markeert een doorbraak in het ertoe brengen dat AI op een behulpzame manier “zijn werk laat zien”.

Hoewel AI-wetenschappers geen probleem hebben met het ontwerpen van systemen die nauwkeurige voorspellingen doen over allerlei bedrijfsresultaten, ontdekken ze dat om die tools effectiever te maken voor menselijke operators, de AI zichzelf mogelijk moet verklaren door middel van een ander algoritme.

Het opkomende gebied van “verklaarbare AI”, of XAI, heeft geleid tot grote investeringen in Silicon Valley, aangezien startups en cloudreuzen concurreren om ondoorzichtige software begrijpelijker te maken en heeft de discussie in Washington en Brussel aangewakkerd, waar regelgevers ervoor willen zorgen dat geautomatiseerde besluitvorming plaatsvindt eerlijk en transparant.

AI-technologie kan maatschappelijke vooroordelen in stand houden, zoals die rond ras, geslacht en cultuur. Sommige AI-wetenschappers beschouwen verklaringen als een cruciaal onderdeel van het verminderen van die problematische resultaten.

Amerikaanse toezichthouders op het gebied van consumentenbescherming, waaronder de Federal Trade Commission, hebben de afgelopen twee jaar gewaarschuwd dat AI die niet verklaarbaar is, kan worden onderzocht. De EU zou volgend jaar de Artificial Intelligence Act kunnen aannemen, een reeks uitgebreide vereisten, waaronder dat gebruikers geautomatiseerde voorspellingen kunnen interpreteren.

Voorstanders van verklaarbare AI zeggen dat het heeft bijgedragen aan het vergroten van de effectiviteit van de toepassing van AI op gebieden zoals gezondheidszorg en verkoop. Google Cloud verkoopt verklaarbare AI-services die bijvoorbeeld klanten die hun systeem proberen aan te scherpen vertellen welke pixels en al snel welke trainingsvoorbeelden het belangrijkst waren bij het voorspellen van het onderwerp van een foto.

Maar critici zeggen dat de verklaringen waarom AI voorspelde wat het deed, te onbetrouwbaar zijn omdat de AI-technologie om de machines te interpreteren niet goed genoeg is.

LinkedIn en anderen die verklaarbare AI ontwikkelen, erkennen dat elke stap in het proces – het analyseren van voorspellingen, het genereren van verklaringen, het bevestigen van hun nauwkeurigheid en het bruikbaar maken voor gebruikers – nog steeds ruimte voor verbetering biedt.

Maar na twee jaar vallen en opstaan ​​in een applicatie met een relatief lage inzet, zegt LinkedIn dat zijn technologie praktische waarde heeft opgeleverd. Het bewijs hiervan is de 8 procent toename van verlengingsboekingen tijdens het huidige fiscale jaar boven de normaal verwachte groei. LinkedIn weigerde het voordeel in dollars te specificeren, maar beschreef het als aanzienlijk.

Voorheen vertrouwden LinkedIn-verkopers op hun eigen intuïtie en enkele vlekkerige geautomatiseerde waarschuwingen over de acceptatie van services door klanten.

Nu handelt de AI snel onderzoek en analyse af. Het wordt door LinkedIn CrystalCandle genoemd en roept onopgemerkte trends op en de redenering ervan helpt verkopers hun tactieken aan te scherpen om risicoklanten aan boord te houden en anderen te pitchen over upgrades.

LinkedIn zegt dat op uitleg gebaseerde aanbevelingen zijn uitgebreid tot meer dan 5.000 van zijn verkoopmedewerkers die zich bezighouden met werving, reclame, marketing en onderwijs.

“Het heeft ervaren verkopers geholpen door hen te wapenen met specifieke inzichten om door gesprekken met prospects te navigeren. Het heeft ook nieuwe verkopers geholpen om er meteen in te duiken”, zegt Parvez Ahammad, LinkedIn’s directeur machine learning en hoofd toegepast onderzoek op het gebied van datawetenschap.

UITLEG OF NIET UITLEGGEN?

In 2020 had LinkedIn voor het eerst voorspellingen gedaan zonder uitleg. Een score met een nauwkeurigheid van ongeveer 80 procent geeft de waarschijnlijkheid aan dat een klant die binnenkort moet worden verlengd, zal upgraden, standvastig houden of annuleren.

Verkopers waren niet helemaal overtuigd. Het team dat de wervings- en wervingssoftware van LinkedIn’s Talent Solutions verkocht, wist niet hoe ze hun strategie moesten aanpassen, vooral wanneer de kans dat een klant niet zou verlengen niet groter was dan een toss.

Afgelopen juli begonnen ze een korte, automatisch gegenereerde alinea te zien waarin de factoren die van invloed zijn op de score worden benadrukt.

De AI besloot bijvoorbeeld dat een klant waarschijnlijk zou upgraden omdat het het afgelopen jaar met 240 werknemers groeide en kandidaten de afgelopen maand 146 procent responsiever waren geworden.

Bovendien is een index die het algehele succes van een klant meet met de wervingstools van LinkedIn de afgelopen drie maanden met 25 procent gestegen.

Lekha Doshi, vice-president van wereldwijde operaties van LinkedIn, zei dat op basis van de uitleg, verkoopvertegenwoordigers klanten nu doorverwijzen naar training, ondersteuning en diensten die hun ervaring verbeteren en ervoor zorgen dat ze blijven uitgeven.

Maar sommige AI-experts vragen zich af of uitleg nodig is. Ze kunnen zelfs schade aanrichten, een vals gevoel van veiligheid in AI veroorzaken of ontwerpopofferingen veroorzaken die voorspellingen minder nauwkeurig maken, zeggen onderzoekers.

Fei-Fei Li, mededirecteur van Stanford University’s Institute for Human-Centered Artificial Intelligence, zei dat mensen producten gebruiken zoals Tylenol en Google Maps waarvan de innerlijke werking niet goed wordt begrepen. In dergelijke gevallen hebben strenge tests en monitoring de meeste twijfels over hun werkzaamheid weggenomen.

Evenzo kunnen AI-systemen in het algemeen als eerlijk worden beschouwd, zelfs als individuele beslissingen ondoorgrondelijk zijn, zei Daniel Roy, universitair hoofddocent statistiek aan de Universiteit van Toronto.

LinkedIn zegt dat de integriteit van een algoritme niet kan worden geëvalueerd zonder zijn denkwijze te begrijpen.

Het stelt ook dat tools zoals CrystalCandle AI-gebruikers op andere gebieden kunnen helpen. Artsen zouden kunnen ontdekken waarom AI voorspelt dat iemand meer risico loopt op een ziekte, of mensen zouden kunnen worden verteld waarom AI aanbeveelt om een ​​creditcard te weigeren.

De hoop is dat verklaringen onthullen of een systeem aansluit bij concepten en waarden die men wil promoten, zei Been Kim, een AI-onderzoeker bij Google.

“Ik zie interpreteerbaarheid als het uiteindelijk mogelijk maken van een gesprek tussen machines en mensen”, zei ze. “Als we echt samenwerking tussen mens en machine mogelijk willen maken, hebben we dat nodig.”

© Thomson Reuters 2022


Leave a Reply

Your email address will not be published. Required fields are marked *