Moeten ML- en AI-ingenieurs zich zorgen maken?

Machine learning en kunstmatige intelligentie groeien in het snelst tempo, en tal van industrieën gebruiken ze om hun zakelijke beslissingen te nemen. Om bedrijfsspecifieke beslissingen te versnellen, werken AI-professionals aan verschillende aspecten en bereiden ze de gegevens voor AI- en ML-platforms.

Deze systemen kiezen de juiste algoritmen, geven antwoorden op basis van de voorspellingen en doen aanbevelingen voor het bedrijf. De belanghebbenden of eindgebruikers verwachten meer duidelijkheid over de oplossingen die deze systemen bieden, en dit grijze gebied wordt a genoemd Zwarte doos.

Dit artikel richt zich op het bespreken van het revolutionaire concept van Verklaarbare AI (XAI) dat heeft de weg veranderd ML of AI-techniek werkt, waardoor de processen overtuigender worden voor bedrijven.

XAI definieert een reeks goed gedefinieerde procedures en methoden waarmee gebruikers de output kunnen herkennen die AI- en ML-systemen produceren. Verklaarbare AI helpt AI-professionals om de resultaten te vertrouwen op basis van de probleemstellingen die het AI-model, verwachte effecten en mogelijke vooroordelen definiëren.

De wereldwijde XAI-marktomvang zal naar verwachting stijgen van 3,5 miljard USD in 2020 naar 21 miljard dollar in 2030, zegt Onderzoek en Markten. Daarom spannen meer organisaties zich in om verklaarbare AI toe te passen in hun bedrijf.

Verklaarbare AI-modellen zijn er in drie soorten:

    • Inherent verklaarbare modellen die zijn ontworpen om gemakkelijk te begrijpen te zijn.
    • Black box-modellen – niet ontworpen op basis van XAI-principes, maar hebben speciale methoden nodig om de betekenis te achterhalen.
    • Repliceerbare modellen – de onderzoeksresultaten die u verkrijgt met ML-modellen kunnen worden gerepliceerd. Het is echter soms moeilijk te begrijpen of replicatie correct wordt uitgevoerd.

Waarom Explainable Artificial Intelligence voor AI-professionals?

Op basis van FICO-rapporten kon 65% van de medewerkers niet uitleggen hoe AI-modellen beslissingen of voorspellingen bepalen. De belangrijkste zorg van zakelijke belanghebbenden is de beperkte interpreteerbaarheid van de systemen, aangezien de huidige ML-oplossingen zeer gevoelig zijn voor menselijke vooroordelen.

De meeste op Data Science en AI gebaseerde projecten gaan nooit door naar productie en ervaren een mislukkingspercentage van 87% vanwege het gebrek aan uitlegbaarheid, zegt VentureBeat. Om dit probleem op te lossen, is XAI gepresenteerd aan de ML-levenscyclus, die black-box-algoritmen vertaalt en uitlegt om te helpen bij het belangrijke besluitvormingsproces.

Met XAI heb je te maken met een groep technieken die helpt bij het kiezen van algoritmen en het functioneren ervan in elke fase van het ML-proces, wat het hoe en waarom van de resultaten van het ML-model verklaart.

Verschillende verklaarbaarheidstechnieken

    • Modelspecifieke uitlegbaarheid: Op basis van de Mxnet-enquête gaf 35% van de AI-ingenieurs aan dat hun collega’s niet konden interpreteren hoe de modellen waren gebouwd, terwijl bijna 47% van hen de resultaten niet aan dergelijke collega’s kon presenteren.
      Het voordeel van deze modellen is dat ze u in staat stellen een diepgaand inzicht te krijgen in beslissingen met een goed begrip van de interne modellen.
    • Model-agnostische uitlegbaarheid: Dit ML-model houdt geen rekening met het algoritme dat wordt gebruikt. Ze zijn flexibel in tegenstelling tot modelspecifieke uitlegbaarheid en houden geen rekening met enige modelstructuur.
      Model-agnostische methoden hebben geen invloed op de prestaties van het ML-model en ze kunnen werken zonder het model te trainen.
    • Modelgerichte uitlegbaarheid: Dit is een traditionele uitlegmethode, die uitlegt hoe de doelwaarden en kenmerken worden aangepast om de algoritmen toe te passen. Het interpreteert en legt ook uit hoe specifieke reeksen resultaten worden geëxtraheerd.
    • Datagerichte uitlegbaarheid: Deze methode begrijpt de aard van gegevens en is uitermate geschikt om zakelijke problemen op te lossen. Gegevens spelen een grote rol bij voorspelling en klassieke modellering.
      Inconsistente gegevens kunnen leiden tot grote faalkansen in het Machine Learning-model. Dataprofilering, data-drift-monitoring, etc. zijn de belangrijkste datacentrische verklaarbaarheidsmethoden.

Verklaarbare theorie van kunstmatige intelligentie

Er zijn bepaalde benchmarks om XAI zakelijk succesvol te maken, zoals hieronder vermeld:

    • Betrokkenheid en betrouwbaarheid: XAI moet een betrouwbare verklaring kunnen geven die leidt tot commitment van het model. Dit zijn essentiële factoren om bij te dragen aan de Root Cause Analyse.
    • Percepties en ervaringen: Ze zijn belangrijk bij het beheer van de Root Cause Analysis om modelvoorspellingen mogelijk te maken. De uitleg moet mensvriendelijk en abstract zijn, zonder overdreven details die de ervaring van de gebruiker zouden kunnen beïnvloeden.
    • Beperking van de afwijking: Afwijkingen in gegevens zijn een algemene zorg en we moeten alert zijn op de gegevens die aan het algoritme worden toegevoerd. Het is belangrijk om een ​​modelverklaring te hebben die de afwijking verklaart. Dit komt omdat het de eindgebruiker zou moeten helpen om de modeluitkomsten gemakkelijk te begrijpen, ongeacht de herhaalde waarde in de datasets.

Vijf overwegingen voor verklaarbare AI

Ongeveer 92% van de organisaties is van mening dat XAI cruciaal is, terwijl weinig van hen al de vereiste uitlegtools hebben gemaakt of gekocht om hun AI-systemen te activeren. Om de noodzakelijke resultaten te verkrijgen met verklaarbare kunstmatige intelligentie, moet u rekening houden met het volgende:

    • Scan de mogelijke vooroordelen om de eerlijkheid van de systemen te beheren en te volgen.
    • Overweeg het model en geef aanbevelingen op basis van de hoogste logische uitkomst. Geef waarschuwingen vrij zodra de modellen afwijken van de vereiste resultaten.
    • Ontvang waarschuwingen wanneer het model een risico ondergaat en analyseer wat er is gebeurd als de afwijkingen aanhouden.
    • Maak, voer uit en beheer de modellen en verenig vervolgens de tools of processen in één enkel platform. Leg de afhankelijkheden van het machine learning-model duidelijk uit.
    • Implementeer de AI-projecten op publieke, private en hybride clouds. Bevorder vertrouwen en betrouwbaarheid met verklaarbare AI.

Enkele XAI industriële use-cases

Volgens de IBM Ethics-enquête zegt ongeveer 85% van de IT-professionals dat consumenten eerder kiezen voor een bedrijf dat blijk geeft van transparantie bij het maken, beheren en gebruiken van AI-modellen. Laten we nu eens kijken naar enkele sectoren waar XAI een enorme impact heeft.

    • Gezondheidszorg: De risico’s kunnen groter zijn als er een onveilig AI-systeem in de gezondheidszorg wordt geplaatst. De beslissingen die AI-modellen nemen om artsen te helpen ziekten, medische beeldvorming, enz. te categoriseren, moeten serieus worden overwogen. Zodra AI-modellen beslissingen nemen, is het van cruciaal belang om erachter te komen of deze beslissingen juist zijn, aangezien er levens op het spel staan.
    • BFSI: De mogelijkheden van AI om kredietrisico’s te beoordelen, worden veel gebruikt in de verzekerings- en banksector. XAI-systemen kunnen de beslissingen uitleggen, zoals het opblazen en laten leeglopen van prijzen, suggesties voor aandelenhandel, enz. Die financiële belangen hebben.
    • Auto: Bij autonoom rijden zijn zelfrijdende auto’s superspannend omdat ze geen verkeerde bewegingen maken. Wanneer u de risico’s van automatische pilootmodi kunt realiseren, kunnen ze met hoge prioriteit worden uitgelegd en verholpen.
    • Productie: Het is noodzakelijk om apparatuurstoringen te diagnosticeren en op te lossen als het gaat om de fabricage van producten. XAI helpt professionals de aanbevelingen te begrijpen over onderhoudsnormen, sensoruitlezingen en bedrijfsspecifieke gegevens die de weg vrijmaken voor belangrijke beslissingen in de productie van apparatuur.

Het afscheidsschot

Uitlegbaarheid is cruciaal voor elke organisatie bij het verplaatsen van AI-modellen naar het productieproces. XAI is de meest innovatieve evolutie van AI, die kansen biedt aan organisaties om onpartijdige en betrouwbare AI-applicaties te bouwen. Organisaties eisen sterk dat professionals klaar zijn voor XAI, zodat ze de uitlegbaarheid van de AI- en ML-systemen die in het bedrijf worden ingezet, kunnen verbeteren. Door AI Engineer-certificering van een gerenommeerd instituut kunnen AI-professionals expertise op hoog niveau in verklaarbare AI opbouwen en ervoor zorgen dat u een aanwinst voor de organisatie bent.

About admin

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *