Nvidia
Our Vertrauen in technical intelligence (AI) hang weitgehend davon ab, wie gut wir sie verstehen. Explainable AI or XAI support, which Komplexität von KI-Modellen that shine through.
von Jochen Papenbrock, Financial Technology Customer & Partner Relationship Manager EMEA at Nvidia
lm Bankwesen hilft der Einsatz von KI bei der Entscheidung zur Vergabe von Krediten sowie zur Erkennung and Vermeidung von Betrugsfällen. Versicherungsunternehmen wiederum setzen KI für die automatisierte Bearbeitung von einfachen Schadensfällen ein.
Die nur wenige Beispiele für den Einsatz von KI im Finanzdienstleistungssektor, denn die Technologie entwickelt sich immer weiter und ihre Einsatzmöglichkeiten potenzieren sich. Abber:
That technology will often neither fragen auf en bietet für Dritte wenig Transparenz.”
If you do, what Unternehmen en Regierungen, die KI and machinelles Lernen einsetzen, zunehmend dazu gedrängt, den Schleier zu lüften en aufzuklären, wie KI-Modelle Entscheidungen hit.
Mithilfe von Erklärbarer KI (Explainable AI, XAI) was able to purchase Unternehmen ein besseres Verständnis in der Gesellschaft dafür, wie KI-Modelle Entscheidungen. AI-Model is extremely complex. So complex and umfangreich, dass ess für Menschen unmöglich ist, die genauen Berechnungen eines umfangreichen Modells fullständig nachzuvollziehen.
Was it explainable AI?
Explainable AI is für eine Reihe von Prozessen and Methoden, die es dem Menschen ermöglichen, zu verstehen, wie der Algorithmus von Punkt A (der Dateeneingabe, zum Beispiel der finanziellen Historie einer Person) zu Punkt B (der Schlussfolgerung, zum Beispiel ob ein Kredit genehmigt wird or nicht) depending.
The different versions of models and commonly used operations in combination with one of the models managed by the models can make Ausgabe make the algorithms for machinelles Lernen look very good when vert.
The Konzept is a fact, der Einsatz von XAI heute aber noch schwierig, and in one of the cases fell neither gar nicht möglich. Das hängt maßgeblich von der Größe des Modells ab. It is a fact for humans that the shape of smaller systems and algorithms is so well understood that the data they use can confirm several data points. Allerdingen without Menschen nicht in der Lage, sehr complex Systeme zu verstehen, so who could es KI-Modelle. Recommendations in complex systems have a value of 28 million Zeilen Code: Selbst ein schneller Leser würde mehr als 3.5 Jahre benötigen, um die Menge and Informationen zu erfassen.
One of the systems that ensures that you are not immersed in the gewünschten Zweck, denn sie sind genau das: einfach. Komplexe Systeme beets eine vele gründlichere Analyze mitviel höherer Leistung.”
Derzeit gibt es möhrere Möglichkeiten, XAI zu implement:
1. The best way to learn, to document, with an algorithm based on the work, and the data, with danes who are trained to work fully. Die Daten müssen are relevant für den beabsichtigten Verwendungszweck sein. Nur so cann sichergestellt zijn, dass sie sachdienlich sind und es zu keinen Verzerrungen kommt.
2. The two best ways to do it are transparent to machin. One of the more complex algorithms, the basic knowledge of which goes through, is that we have a greater understanding of our reinforcement as an algorithm, where the basis of the actual operation is in the Vordergrund mode.
3. Die triple Möglichkeit lies im Aufbau a kontinuierlichen Zyklus erklärbarer Systeme and der Implementierung von Workzeugen, mit dennen Entwickler nachvollziehen können, who has an algorithmic function. Indem diese Erkenntnisse mit others KI-Entwicklern were getelt, schneller and an infacher eine Erklärbarkeit can be purchased.
Der Aufbau großer, komplexer Systeme bedeutet jedoch auch, dass XAI recenintensiv sein kann. Insbesondere für kontinuierlich leernende Modelle, which became increasingly larger, sind leistungsstarke Computing-Plattforms erforderlich.
Who functions Explainable AI?
If the standardization of XAI-Prozessen has not yet been completed, the majority of Unternehmen van allen Branchen, die XAI-einsetzen, fragen, wem sie das Modell erklären wollen, wie präzise die Erklärung sein moes en welcher Teil des Prozesses erklärungsbedürftig is.
Um den Ursprung disagree Modells zu verstehen, gold es einige Aspekte to klären: Wie wurde das Modell trainiert? Who were those Daten spoiled? Who were Verzerrungen in den Daten messen and abgeschwächt?
Bei diesen Fragen get es mehr um den Prozess and das Hinterlegen von Unterlagen als um pure KI. Dies ist divorced, um Vertrauen in ein Modell zu procure.
Erläuterung des Gesamtmodells
Author Jochen Papenbrock, Nvidia

Die meisten Erklärungen von Gesamtmodels lassen sich einem von zwei Bereichen zuordnen.
The first is a technique which is commonly referred to as “Proxy-Modell”. Dabei acts es sich um einfachere, leichter verständliche Modelle wie zum Beispiel Entscheidungsbäume, die das KI-Modell annähernd beschreiben können. Proxy models of Erklärungen multiple entscheidungen can be created. Proxy-Modelle vermitteln a “Gefühl” für das Gesamtmodells as a wistschaftliches, präzises Verständnis.
Der zweite Ansatz is that “Design for interpretability”. If you do that, you can make the environment and training of an AI model smaller, a much larger part can become. Die ermöglicht die Realisierung von Modellen, which never nor leistungsfähig sind, den “Verhalten” aber leichter zu erklären ist.
Warum XAI Einzelentscheidungen am besten erklären kann
Derzeit is der am leichtesten zu verstehende Bereich von XAI die individuen Entscheidungsfindung, zum Beispiel warum one Person ein Kredit nicht wurde wurde.
Some of the techniques of LIME or SHAP, which are used in combination with other XAI methods, are regarded as mathematical mathematical answers to questions posed by these and known Datenwissenschaftlern, Managern, Regulierungsbehörden or Verbrauchern gleichermaßen.
In Rahmen, one of the possible applications of Explainable Machine Learning in Kreditrisikomanagement, the SHAP method was developed, one of the most important variables for the Entscheidungsfindung in Kreditrisikomanagement and ermitteln.
Due to the analysis and grouping of the data of the portfolio files in the cluster with different data, this is a multiple, one of the most diverse models for the internal functions of the different models.’
With the SHAP method, the variables were based on the wahrscheinlichkeit of the forecasts. Jeder Datenpunkt (has a Credit or Darlehenskunde in a Portfolio) does not apply to the Eingangsmerkmale dargestellt, sondern auch durch die Beiträge dieser Eingangsmerkmale. They serve der Vorhersagbarkeit eines machinellen Lernmodells.
Auf diese Weise kon Segmentierungen von Datenpunkten (Kunden) überall dort aufdekt zijn, wo jedes dieser Cluster sehrähnliche Entscheidungskriterien aufweist, die nicht nu rein auf ihren Eingabevariablen baseren. Die Cluster fairen die Mechanik des machinellen Lernmodells sisterammen and set die Art und Weise dar, wie das Modell Entscheidungen trifft. So erhalten Nutzer one of the most diverse davons, that model was a learned hat, um seine Entscheidung zu überprüfen.
The Cluster consists of trends, anomalies, hotspots, emerging effect and Kipppunkte in de Daten aufzeigen. All possible analyzes were performed and for the complete analysis.’
Prior knowledge of Performance mit XAI
Munich Re, one of the world researchers of Rückversicherungs-, Erstversicherungs- and versicherungsbezogenen Risikolösungen, who develops a XAI-Ansatz, a robust of diversified analyses, which even several Portfolioallocation methods are aware of.
In Rahmen, the analyzes of the different allocation methods, hierarchical risk parity (HRP) and equal risk contribution (ERC) are based on the generic market data and key messages, with a strong HRP ERC übertrifft. Mithilfe a Block-Bootstrap-Method 100,000 Szenarien were generated, wobei die Korrelationsstructures erhalten bleiben.
Dieser Ansatz hilft dabei, Hypothesen zu Testen en besser zu verstehen, welche Eigenschaften eines Portfolios that are relevant, and zu ermitteln, welche Faktoren die Performance Qualität des Portfolios bestimmen. Thus, a robust and intelligent power allocation is ermöglicht.
Durch den Einsatz von machinellem Lernen lassen sich die Zusammenhänge zwischen den Eigenschaften in jedem Szenario und der Outperformance aufdecken.
The program learns that some Szenarien have their best performance and many have specific properties that Szenarien have.
So when it’s party time, in whatever market organization/sisters, anzuwenden the HRP allocation method.
Die Entwicklung dieses Systems ermöglichte es Munich Re, schnell zu accept, in welchen Situationen bestimmte Allocationsmethodics who HRP besser abschneiden as other. Mit diesem Wissen can use a robust anlage strategy for answering the replies to the amendments.
Die Zukunft von Explainable AI
Branches and Regierungen auf der ganzen Welt versuchen bereits, aktualisierte Leitlinien für XAI einzuführen. There is no single standard, and those anorderungen and the output variables are according to models, risks, data and context, der verstanden were muss.
If the discussion about the Umsetzung is still not resolved, XAI zum Verständnis der Modellergebnisse can be spoiled and Teil einer umfassenderen Praxis or KI-gestützten Riskmanagements. Letztlich can die so more Vertrauen in KI and damit zu einer breiteren Akzeptanz and einer besseren Einbeziehung and Zugänglichkeit führen.Jochen Papenbrock, Nvidia
https://itfm.link/133518