МОЖЛИВІСНА МОДЕЛЬ КАУЗАЛЬНОГО ЗВ'ЯЗКУ ПО ВХІДНІЙ ЗМІННІЙ ДЛЯ ПОБУДОВИ ПОЯСНЕННЯ В ІНТЕЛЕКТУАЛЬНІЙ СИСТЕМІ
Ключові слова:
інтелектуальна інформаційна система, пояснення, причинно-наслідковий зв'язок, каузальна залежність, когнітивна діяльність
Анотація
Предметом вивчення в статті є процеси побудови пояснень для отриманих в інтелектуальній інформаційній системі рішень. Метою побудова моделі причинно-наслідкових зав'язків для побудови пояснень в умовах невизначеності щодо станів інтелектуальної інформаційної системи, якщо остання представляється у вигляді чорного ящика. Завдання: структуризація пояснення з урахуванням особливостей когнітивної діяльності людини; формування необхідної та достатньої умови щодо каузальної залежності як складової пояснення з використанням теорії можливостей; розробка можливісної моделі каузальної залежності для одної вхідної змінної, яка враховує невизначеність щодо станів інтелектуальної системи. Використовуваними підходами є: підходи до побудови пояснень у когнітивній діяльності людини, підходи до побудови пояснень у пояснювальному штучному інтелекті. Отримані наступні результати. Структуровано пояснення як елемент когнітивної діяльності людини. Показано, що пояснення може бути представлено в двох аспектах: концептуальному, шляхом порівняння вхідної інформації із існуючою системою знань людини; тлумачному, шляхом порівнянні властивостей вхідних об'єктів. Запропоновано можливісні необхідна та достатня умови для каузальної залежності на базі однієї вхідної змінної, що лежить в основі пояснення. Запропоновано модель можливісної каузальної залежності для побудови пояснення в інтелектуальній системі. Висновки. Наукова новизна отриманих результатів полягає в наступному. Запропоновано модель можливісної каузальної залежності між вхідною змінною та результатом роботи інтелектуальної системи, що поєднує необхідну умову каузальності у вигляді рівня довіри до впливу вхідної змінної на результат та достатню умову каузальності у вигляді максимальної можливості впливу значення вхідної змінної на результат інтелектуальної системи. Модель дає можливість сформувати каузально-орієнтоване пояснення на основі зв'язку вхідної змінної і отриманого результату в умовах неповноти знань модель щодо стану інтелектуальної системи.Завантаження
Дані про завантаження поки що недоступні.
Посилання
1. Engelbrecht Andries P. Computational Intelligence: An Introduction. NJ: John Wiley & Sons, 2007. 632 р.
2. Castelvecchi D. (2016), “Can we open the black box of AI?” Nature, Vol. 538 (7623), pp. 20-23.
3. Miller T. (2019), “Explanation in artificial intelligence: Insights from the social sciences”, Artificial Intelligence, vol. 267, pp.1-38, DOI: https://doi.org/10.1016/j.artint.2018.07.007
4. Q. Zhang, Y. Nian Wu, S.-C. Zhu, Interpretable convolutional neural networks, IEEE Conference on Computer Vision and Pattern Recognition. 2018. pp. 8827–8836.
5. Chalyi, S., Leshchynskyi, V., Leshchynska, I. (2019). Method of forming recommendations using temporal constraints in a situation of cyclic cold start of the recommender system. EUREKA: Physics and Engineering, 4, 34–40. doi: https://doi.org/10.21303/2461-4262.2019.00952 . Available at: http://eu-jr.eu/engineering/article/view/952/934.
6. Adadi, A., Berrada, M. (2018) Peeking inside the black-box: a survey on explainable artificial intelligence (XAI). IEEE Access 6, 52138– 52160.
7. Isaac Lage, Emily Chen, Jeffrey He, Menaka Narayanan, Been Kim, Samuel J Gershman, Finale Doshi-Velez. ( 2019) Human evaluation of models built for interpretability. In Proceedings of the AAAI Conference on Human Computation and Crowdsourcing, vol.7, pp 59–67.
8. Gunning і D. Aha, (2019) “DARPA’s Explainable Artificial Intelligence (XAI) Program”, AI Magazine, Vol. 40(2), pp.44-58, doi: 10.1609/aimag.v40i2.2850.
9. Chalyi, S., Leshchynskyi, V. (2020). Method of constructing explanations for recommender systems based on the temporal dynamics of user preferences. EUREKA: Physics and Engineering, 3, 43-50. doi: 10.21303/2461-4262.2020.001228. Available at: http://journal.eu-jr.eu/engineering/article/view/14.
10. Чалий С. Ф. Реляційно-темпоральна модель набору сутностей предметної області для процесу формування рішення в інтелектуальній інформаційній системі / С. Ф. Чалий, В. О. Лещинський, І. О. Лещинська // Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University "KhPI". Ser. : System analysis, control and information technology : зб. наук. пр. – Харків : НТУ "ХПІ", 2022. – № 1 (7). – С. 84-89.
11. Чалий С.Ф., Лещинський В.О., Лещинська I.О. Декларативно-темпоральний підхід до побудови пояснень в інтелектуальних інформаційних системах. Вісник Нац. техн. ун-ту "ХПІ": зб. наук. пр. Темат. вип. Системний аналіз, управління та інформаційні технології. Харків: НТУ «ХПІ». 2020. № 2(4). С. 51-56.
12. Halpern J. Y., Pearl J. Causes and explanations: A structural-model approach. Part I: Causes. The British Journal for the Philosophy of Science. 2005. № 56 (4). P. 843-887.
13. Chalyi S., Leshchynskyi V. Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems. Kharkiv: NTU "KhPI"2020. Vol. 4, № 3. P. 113-117.
14. Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2021) Контрфактуальна темпоральна модель причиннонаслідкових зв'язків для побудови пояснень в інтелектуальних системах,/ Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University "KhPI". Ser. : System analysis, control and information technology : зб. наук. пр. – Харків : НТУ "ХПІ", № 2 (6), С. 41-46.
15. Murphy, G. L., & Medin, D. L. (1985). The role of theories in conceptual coherence. Psychological Review, 92(3), 289–316. https://doi.org/10.1037/0033-295X.92.3.289
16. Carey, S. (1985). Conceptual change in childhood. Cambridge, MA: MIT Press.
17. Rips, L. J. (1989). Similarity, typicality, and categorization. In S. Vosniadou & A. Ortony (Eds.), Similarity and analogical reasoning (pp. 21–59). Cambridge University Press. https://doi.org/10.1017/CBO9780511529863.004
18. Thagard, P. (2006). Evaluating explanations in science, law, and everyday life. Current Directions in Psychological Science, 15, 141–145.
19. Chin-Parker S, Bradner A. A contrastive account of explanation generation. Psychon Bull Rev. 2017 Oct;24(5):1387-1397. doi: 10.3758/s13423-017-1349-x. PMID: 28762030.
2. Castelvecchi D. (2016), “Can we open the black box of AI?” Nature, Vol. 538 (7623), pp. 20-23.
3. Miller T. (2019), “Explanation in artificial intelligence: Insights from the social sciences”, Artificial Intelligence, vol. 267, pp.1-38, DOI: https://doi.org/10.1016/j.artint.2018.07.007
4. Q. Zhang, Y. Nian Wu, S.-C. Zhu, Interpretable convolutional neural networks, IEEE Conference on Computer Vision and Pattern Recognition. 2018. pp. 8827–8836.
5. Chalyi, S., Leshchynskyi, V., Leshchynska, I. (2019). Method of forming recommendations using temporal constraints in a situation of cyclic cold start of the recommender system. EUREKA: Physics and Engineering, 4, 34–40. doi: https://doi.org/10.21303/2461-4262.2019.00952 . Available at: http://eu-jr.eu/engineering/article/view/952/934.
6. Adadi, A., Berrada, M. (2018) Peeking inside the black-box: a survey on explainable artificial intelligence (XAI). IEEE Access 6, 52138– 52160.
7. Isaac Lage, Emily Chen, Jeffrey He, Menaka Narayanan, Been Kim, Samuel J Gershman, Finale Doshi-Velez. ( 2019) Human evaluation of models built for interpretability. In Proceedings of the AAAI Conference on Human Computation and Crowdsourcing, vol.7, pp 59–67.
8. Gunning і D. Aha, (2019) “DARPA’s Explainable Artificial Intelligence (XAI) Program”, AI Magazine, Vol. 40(2), pp.44-58, doi: 10.1609/aimag.v40i2.2850.
9. Chalyi, S., Leshchynskyi, V. (2020). Method of constructing explanations for recommender systems based on the temporal dynamics of user preferences. EUREKA: Physics and Engineering, 3, 43-50. doi: 10.21303/2461-4262.2020.001228. Available at: http://journal.eu-jr.eu/engineering/article/view/14.
10. Чалий С. Ф. Реляційно-темпоральна модель набору сутностей предметної області для процесу формування рішення в інтелектуальній інформаційній системі / С. Ф. Чалий, В. О. Лещинський, І. О. Лещинська // Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University "KhPI". Ser. : System analysis, control and information technology : зб. наук. пр. – Харків : НТУ "ХПІ", 2022. – № 1 (7). – С. 84-89.
11. Чалий С.Ф., Лещинський В.О., Лещинська I.О. Декларативно-темпоральний підхід до побудови пояснень в інтелектуальних інформаційних системах. Вісник Нац. техн. ун-ту "ХПІ": зб. наук. пр. Темат. вип. Системний аналіз, управління та інформаційні технології. Харків: НТУ «ХПІ». 2020. № 2(4). С. 51-56.
12. Halpern J. Y., Pearl J. Causes and explanations: A structural-model approach. Part I: Causes. The British Journal for the Philosophy of Science. 2005. № 56 (4). P. 843-887.
13. Chalyi S., Leshchynskyi V. Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems. Kharkiv: NTU "KhPI"2020. Vol. 4, № 3. P. 113-117.
14. Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2021) Контрфактуальна темпоральна модель причиннонаслідкових зв'язків для побудови пояснень в інтелектуальних системах,/ Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University "KhPI". Ser. : System analysis, control and information technology : зб. наук. пр. – Харків : НТУ "ХПІ", № 2 (6), С. 41-46.
15. Murphy, G. L., & Medin, D. L. (1985). The role of theories in conceptual coherence. Psychological Review, 92(3), 289–316. https://doi.org/10.1037/0033-295X.92.3.289
16. Carey, S. (1985). Conceptual change in childhood. Cambridge, MA: MIT Press.
17. Rips, L. J. (1989). Similarity, typicality, and categorization. In S. Vosniadou & A. Ortony (Eds.), Similarity and analogical reasoning (pp. 21–59). Cambridge University Press. https://doi.org/10.1017/CBO9780511529863.004
18. Thagard, P. (2006). Evaluating explanations in science, law, and everyday life. Current Directions in Psychological Science, 15, 141–145.
19. Chin-Parker S, Bradner A. A contrastive account of explanation generation. Psychon Bull Rev. 2017 Oct;24(5):1387-1397. doi: 10.3758/s13423-017-1349-x. PMID: 28762030.
Опубліковано
2023-09-15
Як цитувати
Chalyi Serhii Можливісна модель каузального зв’язку по вхідній змінній для побудови пояснення в інтелектуальній системі / Serhii Chalyi, Volodymyr Leshchynskyi // Системи управління, навігації та зв’язку. Збірник наукових праць. – Полтава: ПНТУ, 2023. – Т. 3 (73). – С. 138-143. – doi:https://doi.org/10.26906/SUNZ.2023.3.138.
Розділ
Інформаційні технології
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.