МОДЕЛЮВАННЯ ПОЯСНЕНЬ В ІНТЕЛЕКТУАЛЬНИХ СИСТЕМАХ НА ОСНОВІ ІНТЕГРАЦІЇ ТЕМПОРАЛЬНИХ ТА КАУЗАЛЬНИХ ЗАЛЕЖНОСТЕЙ

Автор(и)

  • S. Chalyi
  • V. Leshchynskyi

DOI:

https://doi.org/10.26906/SUNZ.2024.4.163

Ключові слова:

iнтелектуальна система, система штучного інтелекту, пояснення, процес прийняття рішення, темпоральні залежності, каузальні залежності, каузальність, можливість

Анотація

Предметом вивчення в статті є процеси побудови пояснень в інтелектуальних системах з використанням темпоральних та каузальних залежностей. Метою є розробка підходу до побудови пояснень на основі інтеграції темпоральних та каузальних залежностей щодо процесу прийняття рішення з тим, щоб забезпечити можливість формування пояснення як для зовнішніх, так і для внутрішніх користувачів інтелектуальних інформаційних систем. Завдання: визначення відмінностей доступу до інформації в ІІС для зовнішніх та внутрішніх користувачів; розробка ієрархічної моделі пояснення на базі темпоральних та каузальних залежностей; розробка методу побудови пояснення з використанням темпоральних та каузальних залежностей. Використовуваними підходами є: методи побудови пояснень, методи побудови каузальних залежностей. Отримані наступні результати. Виконано структуризацію відмінностей доступу до інформації користувачів інтелектуальних систем для обґрунтування необхідності багаторівневої деталізації пояснень. Запропоновано ієрархічну модель пояснення на основі темпоральних та каузальних залежностей. Запропоновано метод побудови пояснень з використанням темпоральних та каузальних залежностей між станами або діями процесу формування рішення в інтелектуальній системі. Висновки. Наукова новизна отриманих результатів полягає в наступному. Запропоновано ієрархічну модель пояснення, яка містить локальний, процесний та глобальний рівні пояснень згідно можливостей доступу користувачів до інформації щодо процесу формування рішення, що дає можливість враховувати неповноту інформації щодо стану інтелектуальної системи при поясненні її рішень для зовнішніх та внутрішніх користувачів. Розроблено метод побудови пояснень, який містить фази побудови пояснень з використанням темпоральних та каузальних залежностей між вхідними даними, станами процесу формування рішення та отриманим результатом та представлення пояснень, що дає можливість сформувати каузальні залежності на декількох рівнях деталізації та представити їх користувачу у вигляді упорядкованої за вагою множини альтернативних пояснень.

Завантаження

Дані завантаження ще не доступні.

Посилання

Castelvecchi, D. (2016). Can we open the black box of AI? Nature, 538(7623), 20-23. https://doi.org/10.1038/538020a.

Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, 1-38. https://doi.org/10.1016/j.artint.2018.07.007.

Gunning, D., & Aha, D. (2019). DARPA's explainable artificial intelligence (XAI) program. AI Magazine, 40(2), 44-58. https://doi.org/10.1609/aimag.v40i2.2850.

Tintarev, N., & Masthoff, J. (2007). A survey of explanations in recommender systems. In IEEE 23rd International Conference on Data Engineering Workshop (pp. 801-810). https://doi.org/10.1109/ICDEW.2007.4401070.

Pearl, J. (2009). Causality: Models, Reasoning and Inference (2nd ed.). Cambridge University Press. https://doi.org/10.1017/CBO9780511803161.

Downloads

Опубліковано

2024-11-28

Номер

Розділ

Інформаційні технології

Статті цього автора (авторів), які найбільше читають