ІНФОРМАЦІЙНА ТЕХНОЛОГІЯ ОЦІНКИ ПОЯСНЕНЬ В ІНТЕЛЕКТУАЛЬНІЙ ІНФОРМАЦІЙНІЙ СИСТЕМІ

Автор(и)

  • Serhii Chalyi
  • Volodymyr Leshchynskyi

DOI:

https://doi.org/10.26906/SUNZ.2023.4.120

Ключові слова:

інтелектуальна система, пояснення, процес прийняття рішення, причинно-наслідковий зв'язок, оцінка пояснень В

Анотація

Предметом вивчення в статті є процеси побудови пояснень щодо процесів отримання рішення та отриманих результатів в інтелектуальній інформаційній системі. Метою розробка технології оцінки пояснень з урахуванням як чутливості цих пояснень до відмінностей у вхідних даних, так і можливостей використання пояснень користувачем згідно концепції використання рішення інтелектуальної системи.. Завдання: структуризація задач побудови пояснень у аспекті оцінки тлумачень; структуризація показників оцінки пояснень з урахуванням залежностей між цими показниками; розробка послідовності етапів інформаційної технології комплексного оцінювання пояснень в інтелектуальній системі.. Використовуваними підходами є: методи побудови пояснень, методи та підходи до оцінки пояснень в системах штучного інтелекту. Отримані наступні результати. Виконано структуризацію задач побудови пояснень з урахуванняv оцінки отриманих тлумачень. Виконано структуризацію показників оцінки пояснень з урахуванням обмежень доступу до процесу прийняття рішень в інтелектуальній системі. Показано, що в залежності від доступності даних про процес прийняття рішення в інтелектуальній системі доцільно використовувати показники точності або коректності. Показник чутливості дає можливість оцінити пояснення при категоризації знань щодо властивостей об'єктів або вхідних даних. Показник простоти визначає вплив кількості вхідних змінних на пояснення. Висновки. Наукова новизна отриманих результатів полягає в наступному. Запропоновано інформаційну технологію оцінки пояснень в інтелектуальній інформаційній системі. Технологія містить послідовність етапів із розрахунку показників чутливості, коректності та простоти пояснення, а також відбору підмножини пояснень за цими показниками з використанням взаємозалежностей між ними та можливості обмежень по показнику коректності. В практичному плані запропонована технологія створює умови для підбору пояснень за їх чутливістю та простотою для користувача з урахуванням особливостей вхідних даних та процесу використання рішення.

Завантаження

Дані завантаження ще не доступні.

Посилання

Castelvecchi D. (2016), “Can we open the black box of AI?” Nature, Vol. 538 (7623), pp. 20-23.

Adadi, A., Berrada, M. (2018) Peeking inside the black-box: a survey on explainable artificial intelligence (XAI). IEEE Access 6, 52138– 52160.

Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2021) Контрфактуальна темпоральна модель причинно-наслідкових зв'язків для побудови пояснень в інтелектуальних системах,/ Вісник НТУ "ХПІ".– Харків : НТУ "ХПІ", № 2 (6), С. 41-46.

Chi, M., de Leeuw, N., Chiu, M., & LaVancher, C. Eliciting self-explanations improves understanding. Cognitive Science. 1994. Vol.18. P. 439–477.

Carey, S. The origin of concepts. New York, NY: Oxford University Press. 2009. 608 p.

Чалий, С., and Лещинська, І. (2023). Концептуальна ментальна модель пояснення в системі штучного інтелекту. Вісник НТУ «ХПІ». (1 (9), 70–75. https://doi.org/10.20998/2079-0023.2023.01.11

Miller T. (2019), “Explanation in artificial intelligence: Insights from the social sciences”, Artificial Intelligence, vol. 267, pp.1-38, DOI: https://doi.org/10.1016/j.artint.2018.07.007

Tintarev N., Masthoff J. (2012), “Evaluating the effectiveness of explanations for recommender systems”, User Model UserAdap Inter., Vol. 22, pp. 399– 439, https://doi.org/10.1007/s11257-011-9117-5.

Gunning і D. Aha, (2019) “DARPA’s Explainable Artificial Intelligence (XAI) Program”, AI Magazine, Vol. 40(2), pp.44-58, doi: 10.1609/ aimag.v40i2.2850.

Oana-Maria Camburu, Eleonora Giunchiglia, Jakob Foerster, Thomas Lukasiewicz, Phil Blunsom.( 2019) Can I trust the explainer? Verifying post-hoc explanatory methods. arXiv:1910.02065.

M. Yang and B. Kim (2019). BIM: Towards quantitative evaluation of interpretability methodswith ground truth. arXiv:1907.09701

Chalyi, S., Leshchynskyi, V. (2020). Method of constructing explanations for recommender systems based on the temporal dynamics of user preferences. EUREKA: Physics and Engineering, 3, 43-50. doi: 10.21303/2461-4262.2020.001228.

Чалий С. Ф. Реляційно-темпоральна модель набору сутностей предметної області для процесу формування рішення в інтелектуальній інформаційній системі / С. Ф. Чалий, В. О. Лещинський, І. О. Лещинська // Вісник НТУ "ХПІ. Серія: Системний аналiз, управління та iнформацiйнi технологiї – Харків : НТУ "ХПІ", 2022. – № 1 (7). – С. 84-89.

Chalyi, Sergii & Leshchynskyi, V.. (2023). Оцінка чутливості пояснень в інтелектуальній інформаційній системі. Системи управління, навігації та зв’язку. Збірник наукових праць. 2. 165-169. 10.26906/SUNZ.2023.2.165.

Downloads

Опубліковано

2023-12-12

Номер

Розділ

Інформаційні технології