УЗГОДЖЕННЯ ПОЯСНЕННЯ В ІНТЕЛЕКТУАЛЬНІЙ ІНФОРМАЦІЙНІЙ СИСТЕМІ З БАЗОВИМИ ЗНАННЯМИ ЩОДО ПРЕДМЕТНОЇ ОБЛАСТІ
Ключові слова:
знання щодо предметної області, узгодженість знань, інтелектуальна інформаційна система, рекомендації, пояснення, патерни пояснень
Анотація
Предметом вивчення в статті є процеси побудови пояснень щодо запропонованих інтелектуальною інформаційною системою рішень. Метою є розробка методу узгодження пояснень в інтелектуальній інформаційній системі з урахуванням обмежень, які визначаються базовими знаннями щодо об'єктів та процесів у предметної області. Завдання: структуризація процесу побудови пояснень з урахуванням обмежень, представлених знаннями щодо предметної області; визначення аспектів узгодження пояснення; розробка методу узгодження знань щодо пояснення та предметної області. Використовуваними підходами є: підходи до побудови пояснень, підходи до узгодження знань. Отримані наступні результати. Виконано структуризацію процесу побудови пояснень з урахуванням етапу узгодження знань. Виділено аспекти узгодження знань пояснення із вхідними даними в сенсі використання даних для тлумачення, із отриманим інтелектуальною інформаційною системою рішенням в сенсі узгодження з задачами користувача, а також із знаннями предметної області в сенсі обмежень для використання пояснення. Запропоновано метод узгодження пояснення із знаннями щодо предметної області. Висновки. Наукова новизна отриманих результатів полягає в наступному. Запропоновано метод узгодження пояснення із базовими знаннями щодо об'єктів та процесів у предметної області. Метод передбачає ітеративне виконання послідовності узгодження даних щодо процесу прийняття рішень в інтелектуальній системі із знаннями, що описують предметну область, перевірку узгодженості розробленого пояснення із множиною знань щодо предметної області, а також узгодження пояснення з результуючим рішенням інтелектуальної інформаційної системи. В практичному аспекті метод орієнтований на формування підмножини пояснень, що не протирічать базовим з знанням щодо предметної області. Пояснення у складі цієї множини у подальшому можуть бути упорядковані за критерієм ефективності, з урахуванням особливостей задач, для вирішення яких призначені сформовані інтелектуальною системою рішенняЗавантаження
Дані про завантаження поки що недоступні.
Посилання
1. Miller T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, pp. 1-38. DOI: https://doi.org/10.1016/j.artint.2018.07.007.
2. Tsai C., Brusilovsky P. (2019). Explaining recommendations in an interactive hybrid social recommender. Proceedings of the 24th International Conference on Intelligent User Interfaces, pp. 391-396.
3. Dominguez V., Messina P., Donoso-Guzmán I., Parra D. (2019). The effect of explanations and algorithmic accuracy on visual recommender systems of artistic images. Proceedings of the 24th International Conference on Intelligent User Interfaces (IUI '19), pp. 408-416.
4. Wooley, B. A. (1998). Explanation component of software system. Crossroads, 5(1), pp. 24–28.
5. Cunningham P., Doyle D., Loughrey J. (2003). An evaluation of the usefulness of case-based reasoning explanation. Proceedings of the International Conference on Case-Based Reasoning, Trondheim, Springer, pp. 122–130.
6. Cleger S., Fernбndez-Luna J., F Huete J. Learning from explanations in recommender systems. Information Sciences, 2014, 287, pp. 90–108.
7. Chalyi S., Leshchynskyi V., Leshchynska I. (2019). Method of forming recommendations using temporal constraints in a situation of cyclic cold start of the recommender system. EUREKA: Physics and Engineering, 4, pp. 34-40. DOI: 10.21303/2461-4262.2019.00952.
8. Чалий С.Ф., Лещинський В.О., Лещинська І.О. (2019). Моделювання пояснень щодо рекомендованого переліку об’єктів з урахуванням темпорального аспекту вибору користувача. Системи управління, навігації та зв’язку, 6 (58), 97-101.
9. Chalyi, S., Leshchynskyi, V. (2020). Method of constructing explanations for recommender systems based on the temporal dynamics of user preferences. EUREKA: Physics and Engineering, 3, 43-50. DOI: 10.21303/2461-4262.2020.001228.
10. Cleger S., Fernбndez-Luna J., F Huete J. (2014). Learning from explanations in recommender systems. Information Sciences, 287, pp. 90–108.
11. Daher J, Brun A., Boyer A. A. (2017). Review on Explanations in Recommender Systems. Technical Report. LORIA Université de Lorraine, 26 p.
12. Thagard P. (2007). Coherence, truth, and the development of scientific knowledge. Philosophy of Science, 74, pp. 28-47.
13. Thagard P. (2004). Causal inference in legal decision making: Explanatory coherence vs. Bayesian networks. Applied Artificial Intelligence, 18, pp. 231-249.
14. Thagard P., Verbeurgt K. (1998). Coherence as constraint satisfaction. Cognitive Science, 22, pp. 1-24.
15. Thagard P. (2010). Causal inference in legal decision making: explanatory coherence vs. Bayesian networks. Applied Artificial Intelligence, 18:3-4, 231-249. DOI: https://doi.org/10.1080/08839510490279861.
16. Fayyad, U., Piatetsky-Shapiro, G., and Smyth, P. (1996). From Data Mining to Knowledge Discovery in Databases. AI magazine, 17(3), 37.
17. Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2020). Модель пояснення в інтелектуальній інформаційній системі на основі концепції узгодженості знань. Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології, 1 (3), 19-23.
2. Tsai C., Brusilovsky P. (2019). Explaining recommendations in an interactive hybrid social recommender. Proceedings of the 24th International Conference on Intelligent User Interfaces, pp. 391-396.
3. Dominguez V., Messina P., Donoso-Guzmán I., Parra D. (2019). The effect of explanations and algorithmic accuracy on visual recommender systems of artistic images. Proceedings of the 24th International Conference on Intelligent User Interfaces (IUI '19), pp. 408-416.
4. Wooley, B. A. (1998). Explanation component of software system. Crossroads, 5(1), pp. 24–28.
5. Cunningham P., Doyle D., Loughrey J. (2003). An evaluation of the usefulness of case-based reasoning explanation. Proceedings of the International Conference on Case-Based Reasoning, Trondheim, Springer, pp. 122–130.
6. Cleger S., Fernбndez-Luna J., F Huete J. Learning from explanations in recommender systems. Information Sciences, 2014, 287, pp. 90–108.
7. Chalyi S., Leshchynskyi V., Leshchynska I. (2019). Method of forming recommendations using temporal constraints in a situation of cyclic cold start of the recommender system. EUREKA: Physics and Engineering, 4, pp. 34-40. DOI: 10.21303/2461-4262.2019.00952.
8. Чалий С.Ф., Лещинський В.О., Лещинська І.О. (2019). Моделювання пояснень щодо рекомендованого переліку об’єктів з урахуванням темпорального аспекту вибору користувача. Системи управління, навігації та зв’язку, 6 (58), 97-101.
9. Chalyi, S., Leshchynskyi, V. (2020). Method of constructing explanations for recommender systems based on the temporal dynamics of user preferences. EUREKA: Physics and Engineering, 3, 43-50. DOI: 10.21303/2461-4262.2020.001228.
10. Cleger S., Fernбndez-Luna J., F Huete J. (2014). Learning from explanations in recommender systems. Information Sciences, 287, pp. 90–108.
11. Daher J, Brun A., Boyer A. A. (2017). Review on Explanations in Recommender Systems. Technical Report. LORIA Université de Lorraine, 26 p.
12. Thagard P. (2007). Coherence, truth, and the development of scientific knowledge. Philosophy of Science, 74, pp. 28-47.
13. Thagard P. (2004). Causal inference in legal decision making: Explanatory coherence vs. Bayesian networks. Applied Artificial Intelligence, 18, pp. 231-249.
14. Thagard P., Verbeurgt K. (1998). Coherence as constraint satisfaction. Cognitive Science, 22, pp. 1-24.
15. Thagard P. (2010). Causal inference in legal decision making: explanatory coherence vs. Bayesian networks. Applied Artificial Intelligence, 18:3-4, 231-249. DOI: https://doi.org/10.1080/08839510490279861.
16. Fayyad, U., Piatetsky-Shapiro, G., and Smyth, P. (1996). From Data Mining to Knowledge Discovery in Databases. AI magazine, 17(3), 37.
17. Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2020). Модель пояснення в інтелектуальній інформаційній системі на основі концепції узгодженості знань. Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології, 1 (3), 19-23.
Опубліковано
2021-02-26
Як цитувати
Chalyi S. Узгодження пояснення в інтелектуальній інформаційній системі з базовими знаннями щодо предметної області / S. Chalyi, V. Leshchynskyi, I. Leshchynska // Системи управління, навігації та зв’язку. Збірник наукових праць. – Полтава: ПНТУ, 2021. – Т. 1 (63). – С. 115-119. – doi:https://doi.org/10.26906/SUNZ.2021.1.115.
Розділ
Інформаційні технології
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.