Siirry sisältöön

Tietojenkäsittelytiede:selitettävissä oleva tekoäly

Tieteen termipankista

selitettävissä oleva tekoäly

selitettävissä oleva tekoäly
Määritelmä menetelmien, mallien ja prosessien joukko, jonka avulla tekoälyjärjestelmien päätökset ja tulokset tehdään ymmärrettäviksi ihmisille
Määritelmä (en) explainable artificial intelligence (XAI) refers to a set of techniques, models, and processes that make the decisions and outputs of artificial intelligence (AI) systems understandable to humans
Selite

Toisin kuin perinteinen "musta laatikko" -tekoäly, joka toimii läpinäkymättömästi, selitettävissä oleva tekoäly tarjoaa näkemystä siitä, miten tekoälyjärjestelmä päätyy johtopäätöksiinsä, varmistaen vastuullisuuden, luottamuksen ja eettisen vaatimustenmukaisuuden. Tekoälyjärjestelmät, erityisesti syväoppimismallit, toimivat usein tavoilla, joita on vaikea tulkita. selitettävissä oleva tekoäly ratkaisee tämän:

  • Lisäämällä läpinäkyvyyttä: Paljastamalla tekoälyn päätösten taustalla oleva logiikka (esim. mitkä tekijät vaikuttivat ennusteeseen)
  • Parantamalla luottamusta: Auttamalla käyttäjiä, sääntelijöitä ja sidosryhmiä vahvistamaan tekoälyn tulokset ennen niiden käyttöä
  • Varmistamalla vaatimustenmukaisuuden: Täyttämällä lakisääteiset ja eettiset vaatimukset aloilla kuten terveydenhuolto, rahoitus ja tekniikka

Keskeisiä selitettävissä oleva tekoäly-menetelmiä:

  • Ominaisuuksien merkitys: Tunnistetaan, mitkä syötteet vaikuttavat eniten tekoälyn päätöksiin
  • Local Interpretable Model-agnostic Explanations (LIME): Selitetään yksittäisiä ennusteita
  • SHapley Additive exPlanations (SHAP): Kvantifioidaan kunkin ominaisuuden osuus lopputulokseen
  • Individual Conditional Expectation (ICE): Visualisoidaan, kuinka mallin ennuste muuttuu yksittäisessä tapauksessa, kun ominaisuutta muutetaan
  • Partial Dependence Plots (PDP): Näytetään yhden tai kahden ominaisuuden vaikutus mallin ennusteisiin koko aineistossa
  • Counterfactual Explanations (CFE): Tarjotaan "mitä-jos" -skenaarioita, jotka näyttävät, kuinka syötemuutokset vaikuttavat tekoälymallin tulokseen
  • Anchors: Tarkat sääntöpohjaiset selitykset, jotka kuvaavat ehdot, joilla ennuste pysyy ennallaan
Selite (en)

Unlike traditional "black box" AI, which operates without transparency, XAI provides insights into how an AI system arrives at its conclusions, ensuring accountability, trust, and ethical compliance. AI systems, particularly deep learning models, often function in ways that are difficult for humans to interpret. XAI addresses this by:

  • Enhancing Transparency: Revealing the logic behind AI decisions (e.g., which features influenced a prediction)
  • Improving Trust: Helping users, regulators, and stakeholders validate AI outputs before relying on them
  • Ensuring Compliance: Meeting legal and ethical requirements in fields like healthcare, finance, and engineering

Key methods in XAI include:

  • Feature Importance: Identifying which inputs most affect the AI’s decisions
  • Local Interpretable Model-agnostic Explanations (LIME): Explaining individual predictions
  • SHapley Additive exPlanations (SHAP): Quantifying each feature’s contribution to the outcome
  • Individual Conditional Expectation (ICE): Visualizing how a model's prediction changes for a single instance when a feature is varied
  • Partial Dependence Plots (PDP): Showing the marginal effect of one or two features on the model's predictions across a dataset
  • Counterfactual Explanations (CF): Providing "what-if" scenarios to show how changes in input features would alter the AI model's output
  • Anchors: High-precision rule-based explanations that describe conditions under which a prediction remains stable
Lisätiedot

Sovellusalueet:

  • Terveydenhuolto: Diagnostisen tekoälyn suositusten perusteleminen lääkäreille
  • Rahoitus: Luottoluokituksen tai petosten tunnistuksen päätösten selittäminen
  • Rakennustekniikka ja korjausrakentaminen: Rakenteiden arviointi, suunnittelu ja korjaus datavetoisen tekoälymallin perusteella

Lähde:

David Gunning, Eric Vorm, Jennifer Yunyan Wang, Matt Turek (2021). DARPA's explainable AI (XAI) program: A retrospective. Applied AI Letters, 2(4). https://doi.org/10.1002/ail2.61
Lisätiedot (en)

Application scenarios

  • Healthcare: Justifying diagnostic AI recommendations to doctors
  • Finance: Explaining credit scoring or fraud detection decisions
  • Structural Engineering & Retrofitting: To assess, design, and retrofitting of structures based on data driven AI models

Reference:

David Gunning, Eric Vorm, Jennifer Yunyan Wang, Matt Turek (2021). DARPA's explainable AI (XAI) program: A retrospective. Applied AI Letters, 2(4). https://doi.org/10.1002/ail2.61

Erikieliset vastineet

explainable artificial intelligenceenglanti (English)


Alaviitteet

Lähdeviittaus tähän sivuun:
Tieteen termipankki 12.12.2025: Tietojenkäsittelytiede:selitettävissä oleva tekoäly. (Tarkka osoite: https://tieteentermipankki.fi/wiki/Tietojenkäsittelytiede:selitettävissä oleva tekoäly.)