МОЖЛИВІСНА МОДЕЛЬ КАУЗАЛЬНОГО ЗВ'ЯЗКУ ПО ВХІДНІЙ ЗМІННІЙ ДЛЯ ПОБУДОВИ ПОЯСНЕННЯ В ІНТЕЛЕКТУАЛЬНІЙ СИСТЕМІ

Автор(и)

  • Serhii Chalyi
  • Volodymyr Leshchynskyi

DOI:

https://doi.org/10.26906/SUNZ.2023.3.138

Ключові слова:

інтелектуальна інформаційна система, пояснення, причинно-наслідковий зв'язок, каузальна залежність, когнітивна діяльність

Анотація

Предметом вивчення в статті є процеси побудови пояснень для отриманих в інтелектуальній інформаційній системі рішень. Метою побудова моделі причинно-наслідкових зав'язків для побудови пояснень в умовах невизначеності щодо станів інтелектуальної інформаційної системи, якщо остання представляється у вигляді чорного ящика. Завдання: структуризація пояснення з урахуванням особливостей когнітивної діяльності людини; формування необхідної та достатньої умови щодо каузальної залежності як складової пояснення з використанням теорії можливостей; розробка можливісної моделі каузальної залежності для одної вхідної змінної, яка враховує невизначеність щодо станів інтелектуальної системи. Використовуваними підходами є: підходи до побудови пояснень у когнітивній діяльності людини, підходи до побудови пояснень у пояснювальному штучному інтелекті. Отримані наступні результати. Структуровано пояснення як елемент когнітивної діяльності людини. Показано, що пояснення може бути представлено в двох аспектах: концептуальному, шляхом порівняння вхідної інформації із існуючою системою знань людини; тлумачному, шляхом порівнянні властивостей вхідних об'єктів. Запропоновано можливісні необхідна та достатня умови для каузальної залежності на базі однієї вхідної змінної, що лежить в основі пояснення. Запропоновано модель можливісної каузальної залежності для побудови пояснення в інтелектуальній системі. Висновки. Наукова новизна отриманих результатів полягає в наступному. Запропоновано модель можливісної каузальної залежності між вхідною змінною та результатом роботи інтелектуальної системи, що поєднує необхідну умову каузальності у вигляді рівня довіри до впливу вхідної змінної на результат та достатню умову каузальності у вигляді максимальної можливості впливу значення вхідної змінної на результат інтелектуальної системи. Модель дає можливість сформувати каузально-орієнтоване пояснення на основі зв'язку вхідної змінної і отриманого результату в умовах неповноти знань модель щодо стану інтелектуальної системи.

Завантаження

Дані завантаження ще не доступні.

Посилання

Engelbrecht Andries P. Computational Intelligence: An Introduction. NJ: John Wiley & Sons, 2007. 632 р.

Castelvecchi D. (2016), “Can we open the black box of AI?” Nature, Vol. 538 (7623), pp. 20-23.

Miller T. (2019), “Explanation in artificial intelligence: Insights from the social sciences”, Artificial Intelligence, vol. 267, pp.1-38, DOI: https://doi.org/10.1016/j.artint.2018.07.007

Q. Zhang, Y. Nian Wu, S.-C. Zhu, Interpretable convolutional neural networks, IEEE Conference on Computer Vision and Pattern Recognition. 2018. pp. 8827–8836.

Chalyi, S., Leshchynskyi, V., Leshchynska, I. (2019). Method of forming recommendations using temporal constraints in a situation of cyclic cold start of the recommender system. EUREKA: Physics and Engineering, 4, 34–40. doi: https://doi.org/10.21303/2461-4262.2019.00952 . Available at: http://eu-jr.eu/engineering/article/view/952/934.

Adadi, A., Berrada, M. (2018) Peeking inside the black-box: a survey on explainable artificial intelligence (XAI). IEEE Access 6, 52138– 52160.

Isaac Lage, Emily Chen, Jeffrey He, Menaka Narayanan, Been Kim, Samuel J Gershman, Finale Doshi-Velez. ( 2019) Human evaluation of models built for interpretability. In Proceedings of the AAAI Conference on Human Computation and Crowdsourcing, vol.7, pp 59–67.

Gunning і D. Aha, (2019) “DARPA’s Explainable Artificial Intelligence (XAI) Program”, AI Magazine, Vol. 40(2), pp.44-58, doi: 10.1609/aimag.v40i2.2850.

Chalyi, S., Leshchynskyi, V. (2020). Method of constructing explanations for recommender systems based on the temporal dynamics of user preferences. EUREKA: Physics and Engineering, 3, 43-50. doi: 10.21303/2461-4262.2020.001228. Available at: http://journal.eu-jr.eu/engineering/article/view/14.

Чалий С. Ф. Реляційно-темпоральна модель набору сутностей предметної області для процесу формування рішення в інтелектуальній інформаційній системі / С. Ф. Чалий, В. О. Лещинський, І. О. Лещинська // Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University "KhPI". Ser. : System analysis, control and information technology : зб. наук. пр. – Харків : НТУ "ХПІ", 2022. – № 1 (7). – С. 84-89.

Чалий С.Ф., Лещинський В.О., Лещинська I.О. Декларативно-темпоральний підхід до побудови пояснень в інтелектуальних інформаційних системах. Вісник Нац. техн. ун-ту "ХПІ": зб. наук. пр. Темат. вип. Системний аналіз, управління та інформаційні технології. Харків: НТУ «ХПІ». 2020. № 2(4). С. 51-56.

Halpern J. Y., Pearl J. Causes and explanations: A structural-model approach. Part I: Causes. The British Journal for the Philosophy of Science. 2005. № 56 (4). P. 843-887.

Chalyi S., Leshchynskyi V. Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems. Kharkiv: NTU "KhPI"2020. Vol. 4, № 3. P. 113-117.

Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2021) Контрфактуальна темпоральна модель причиннонаслідкових зв'язків для побудови пояснень в інтелектуальних системах,/ Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University "KhPI". Ser. : System analysis, control and information technology : зб. наук. пр. – Харків : НТУ "ХПІ", № 2 (6), С. 41-46.

Murphy, G. L., & Medin, D. L. (1985). The role of theories in conceptual coherence. Psychological Review, 92(3), 289–316. https://doi.org/10.1037/0033-295X.92.3.289

Carey, S. (1985). Conceptual change in childhood. Cambridge, MA: MIT Press.

Rips, L. J. (1989). Similarity, typicality, and categorization. In S. Vosniadou & A. Ortony (Eds.), Similarity and analogical reasoning (pp. 21–59). Cambridge University Press. https://doi.org/10.1017/CBO9780511529863.004

Thagard, P. (2006). Evaluating explanations in science, law, and everyday life. Current Directions in Psychological Science, 15, 141–145.

Chin-Parker S, Bradner A. A contrastive account of explanation generation. Psychon Bull Rev. 2017 Oct;24(5):1387-1397. doi: 10.3758/s13423-017-1349-x. PMID: 28762030.

Downloads

Опубліковано

2023-09-15

Номер

Розділ

Інформаційні технології