De grondbeginselen van Explainable AI en het belang ervan

De wereld van machine learning heeft algoritmen ingewikkelder gemaakt met oordelen die moeilijk te begrijpen en te lezen zijn. Hoe kan kunstmatige intelligentie beslissingen nemen? Aangezien mensen ze bouwen, zouden mensen het moeten weten.

Hoewel we rekening houden met spraakmakende voorbeelden van voorkeur voor machine learning, begrijpen we dat u de resultaten niet kunt voorspellen. Zelfs als we bijvoorbeeld weten wat er in de trainingsgegevens wordt ingevoerd en welke strategie we gebruiken om de computer te programmeren om te leren, blijven de resultaten onvoorspelbaar.

Aangezien AI-talent grotendeels wordt gebruikt op gebieden met kritieke toepassingen zoals gezondheidszorg, veiligheid, enz.; we moeten het scenario overwegen waarin AI menselijke toezichthoudende functies zou vervangen. In dergelijke omstandigheden is het belangrijk om te laten zien hoe de AI erin is geslaagd om dit oordeel of deze oplossing te maken.

Dit is waar verklaarbare AI relevant en belangrijk is voor verschillende industrieën, die we in de komende paragrafen in detail zullen bespreken.

Verklaarbare AI of ook wel interpreteerbare AI genoemd, is kunstmatige intelligentie waarbij mensen de resultaten van hun oplossing kunnen interpreteren of begrijpen. Explainable AI staat in contrast met het ‘black box’-concept in Machine learning, waarbij zelfs de ontwerpers de beslissing die AI maakt niet kunnen rechtvaardigen.

Sinds het gebied van AI volwassen is geworden, zijn er complexe ondoorzichtige modellen die werden ingezet om oplossingen te vinden voor moeilijke problemen. In tegenstelling tot de eerdere modellen hebben deze geavanceerde modellen een complexe architectuur, waardoor ze moeilijk te overzien of te begrijpen zijn.

Wanneer dit soort modellen zich niet gedragen zoals verwacht, vinden de eindgebruikers of ontwikkelaars het moeilijk om te bewijzen waarom deze methoden de problemen effectief kunnen aanpakken. Explainable AI of XAI voldoet aan de groeiende eisen van AI-engineering om inzicht te bieden in de interne werking van dergelijke ondoorzichtige modellen. Daarbij resulteren de onoplettendheid in exponentiële verbeteringen in de prestaties van de systemen.

Uit een onderzoek van IBM bleek bijvoorbeeld dat de gebruikers van het XAI-platform een ​​stijging van ongeveer 15-30% in de nauwkeurigheid van de modellen bereikten en een stijging van USD 4,1 – 15,6 miljoen in termen van winst.

Laten we een voorbeeld nemen om te begrijpen wat verklaarbare AI betekent. De deep learning-algoritmen versterken toepassingen in de gezondheidszorg, zoals kankerscreening, waarbij het voor artsen belangrijk is om de logica achter het diagnose-algoritme te analyseren. Als het een vals negatief is, betekent dit dat de patiënt geen levensreddende behandeling krijgt, terwijl een vals positief betekent dat de patiënt de invasieve behandeling krijgt terwijl het niet essentieel is.

De fundamenten van verklaarbare AI

Uitleg

Om voor elk bedrijf een hoge inzet te genereren, is een uitgebreide uitleg van het Artificial Intelligence-model met feiten en redeneringen cruciaal. De uitleg die de systeemeigenaren ten goede komt, bijvoorbeeld aanbevolen muziek, films, enz., wordt aan de systeemeigenaar geleverd.

Zinvol

Hier moet de uitlegbare AI begrijpelijke uitleg bieden aan de partners en belanghebbenden van een bedrijf. Verschillende gebruikers kunnen vanwege psychologische verschillen verschillende manieren hebben om hun uitleg te interpreteren. Als een autobestuurder een plastic zak verkeerd interpreteert als een steen, moet de ontwikkelaar de reden achter de verkeerde classificatie begrijpen.

De nauwkeurigheidsstatistieken van de uitleg kunnen bedrijven helpen om de juistheid van de uitleg aan hun belanghebbenden te benadrukken. Terwijl een algoritme voor het goedkeuren van een lening bijvoorbeeld een beslissing moet beschrijven op basis van het inkomen en de schuld van de aanvrager, en de beslissing wordt genomen op basis van de postcode, ontbreekt de nauwkeurigheid van de uitleg.

Kennis Grenzen

AI-modellen moeten binnen de kennisgrenzen werken om discrepanties of ongewenste uitkomsten te voorkomen. AI-systemen moeten de kennisbeperkingen identificeren en delen om de vertrouwensfactor tussen een bedrijf en de belanghebbenden te koesteren. Overweeg een systeem dat de vissoorten kan classificeren voor de aquacultuur, en heeft wat visresten. Het systeem kan melden dat het een vis niet heeft kunnen detecteren, in plaats van een misleidende detectie te geven.

De betekenis van Explainable AI in verschillende branches

Om AI efficiënt toe te passen, moeten organisaties ethische principes integreren in de AI-toepassingen of -processen door de ontwikkeling van transparante AI-systemen. Dit zijn de kernsectoren waar verklaarbare AI wonderen kan verrichten.

    1. GezondheidszorgMet een machine die verklaarbare AI gebruikt, kan het medisch personeel helpen met tijd om zich alleen te concentreren op de interpretatietaak in plaats van te werken aan repetitieve taken. XAI helpt machines om gegevens te evalueren en tot een conclusie te komen en geeft de arts ook informatie over de beslissingslijn om te beseffen hoe het is afgelopen.
    1. ProductieDe XAI kan bepalen waarom de lopende band niet goed werkt en hoe deze na verloop van tijd moet worden bijgesteld. Het is belangrijk om het begrip van machines te verbeteren en een groot bewustzijn bij mens en machine te creëren.
    1. VerdedigingMet verklaarbare AI kun je uitleggen waarom AI-systemen of autonome voertuigen beslissingen nemen. Dit is belangrijk om ethische uitdagingen te vermijden, zoals waarom het systeem een ​​specifiek object verkeerd heeft geïdentificeerd of niet op het doelwit heeft geschoten.
    1. Autonome voertuigenDe XAI is belangrijk in deze sector vanwege onverwachte ongelukken die autonome voertuigen kunnen veroorzaken. Hier kunnen de algoritmen veiligheidskritische beslissingen nemen met een verbeterd situationeel bewustzijn tegen onverwachte gebeurtenissen of ongevallen.
    1. Goedkeuringen van leningenDe XAI kan uitleggen waarom de lening wordt goedgekeurd of geweigerd. Het is essentieel omdat het helpt om de mogelijke ethische nadelen te voorkomen door het begrijpen van mens en machine.
    1. Fraude detectieFinanciële diensten gebruiken Explainable AI om de reden uit te leggen achter het markeren van een transactie als verdacht en vele andere activiteiten. Het kan u ook helpen om een ​​einde te maken aan de zorgen over oneerlijke vooringenomenheid of discriminatie terwijl u de frauduleuze transacties identificeert.

Valkuilen van Explainable AI

De definities van verklaarbare AI worden in verschillende contexten verschillend geïnterpreteerd. Bepaalde onderzoekers beschouwen interpreteerbaarheid en verklaarbaarheid door elkaar om het concept van het bouwen van begrijpelijke modellen te definiëren.

Het zogenaamde racistische AI-algoritme van Google voor het taggen van foto’s om zwarte mensen van gorilla’s te onderscheiden, zorgde voor een wereldwijd gedoe. Evenzo was er in 2013 een ander incident, waar zonder menselijk toezicht het geautomatiseerde platform van Amazon AI T-shirts verkocht met de slogan ‘Keep Calm and Punch Her’.

Ook mist het real-world begeleiding bij het kiezen, implementeren en testen van de uitleg om de projectvereisten te ondersteunen.

Hoewel er verklaringen worden gepresenteerd om het begrip van ML-systemen te vergroten, gaat het onderzoek nog steeds verder om te weten hoe de uitlegbaarheid kan worden geschaald om ook het vertrouwen onder de niet-AI-experts te vergroten.

Conclusie

AI-experts moeten toezicht kunnen houden op de AI-systemen en kunnen aangeven waarom de bedrijfskritische beslissingen zijn genomen door de AI-toepassingen van platformen. Het is noodzakelijk om de AI-professionals de gecompliceerde systemen te laten interpreteren en te begrijpen dat de modellen precies hebben geleerd wat ze hadden moeten leren. Door middel van AI-opleiding van een gereputeerde aanbieder van AI-certificeringscursussen kan een AI-talent modellen ontwikkelen, in productie nemen en een veelzijdige benadering hanteren voor hoe de systemen de reden achter de beslissingen verklaren.

About admin

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *