Математичні методи цифровізації HR-процесів у публічному управлінні

Автор(и)

DOI:

https://doi.org/10.26906/EiR.2025.4(99).4169

Ключові слова:

публічне управління, штучний інтелект у відборі кадрів, алгоритмічна упередженість, алгоритмічна дискримінація, високоризикові HR-системи, EU «AI Act», аудит даних, математичні методи

Анотація

У дослідженні було виявлено, що впровадження штучного інтелекту в процеси добору кадрів державного сектору має подвійний ефект бо з одного боку алгоритмічні системи розширюють можливості оптимізації, стандартизації й підвищення продуктивності при одночасному скороченні ресурсних витрат, а з іншого боку вони генерують нові ризики відтворення структурних нерівностей і алгоритмічної дискримінації, що безпосередньо впливає на легітимність публічної влади. Проаналізовані сучасні наукові підходи до виявлення джерел упередженості показали несбалансованість технічних, етичних і правових рамок, що зумовлює розрив між ефективністю моделей, регуляторними вимогами та сприйняттям справедливості кандидатами. Доведено, що алгоритмічна упередженість проявляється на всіх етапах рекрутингового циклу, включно з таргетингом вакансій, автоматизованим скринінгом резюме, аналізом відеоінтерв’ю, психометричною оцінкою та ранжуванням, унаслідок чого алгоритми здатні масштабувати наявні соціальні нерівності й формувати нові приховані асиметрії. Систематизовано нормативно-правові вимоги щодо використання ШІ у сфері зайнятості відповідно до EU «AI Act», «Європейської конвенції з прав людини» та «GDPR», і обґрунтовано чому вони віднесені до високоризикових систем із необхідністю обов’язкового аудиту справедливості, прозорості, якості даних, людського нагляду та недискримінаційності. Для подолання виявлених суперечностей запропоновано композитний індекс справедливості та недискримінаційності, який інтегрує технічні метрики, етичні вимоги й правові критерії в єдину кількісну систему оцінювання, дозволяючи ідентифікувати критичні точки вразливості, визначати рівень ризику для публічного сектору та формувати доказову базу управлінських рішень. Вказано, що така модель переводить справедливість із абстрактного етичного принципу в вимірюваний параметр стандартизованого аудиту й регуляторного контролю та створює практичну основу для підвищення довіри до державних алгоритмів за умови системного забезпечення недискримінаційності та суспільної орієнтації цифрових кадрових рішень.

Біографії авторів

Олександр Олійник, Запорізький національний університет

кандидат філософських наук, доцент кафедри бізнес-адміністрування і менеджменту зовнішньоекономічної діяльності

Дамір Бікулов, Запорізький національний університет

доктор наук з державного управління, професор кафедри бізнес-адміністрування і менеджменту зовнішньоекономічної діяльності

Ольга Головань, Запорізький національний університет

кандидат фізико-математичних наук, доцент, кафедри бізнес-адміністрування і менеджменту зовнішньоекономічної діяльності

Світлана Маркова, Запорізький національний університет

доктор економічних наук, професор кафедри бізнес-адміністрування і менеджменту зовнішньоекономічної діяльності

Ольга Верітова, Запорізький національний університет

кандидат педагогічних наук, старший викладач кафедри бізнес-адміністрування і менеджменту зовнішньоекономічної діяльності

Посилання

1. Köchling A., Wehner M.C. (2020). Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decision making in the context of HR recruitment and HR development. Business Research, vol. 13, pp. 795–848.

2. Starke C., Lünich M. (2020). Artificial intelligence for political decision making in the European Union: effects on citizen’s perceptions of input, throughput and output legitimacy. Data and Policy, no. 2, pp. 1–17.

3. Bansak K., Ferwerda J., Hainmueller J., Dillon A., Hangartner D., Lawrence D., Weinstein J. (2018). Improving refugee integration through data driven algorithmic assignment. Science, vol. 359, pp. 325–329.

4. Mujtaba D.F., Mahapatra N.R. (2019). Ethical considerations in AI based recruitment. IEEE International Symposium on Technology and Society, pp. 1–7.

5. Fregnan E., Ivaldi S., Scaratti G. (2020). HRM 4.0 and new managerial competences profile: the COMAU case. Frontiers in Psychology, vol. 11, pp. 1–16.

6. Zeebaree S.R., Shukur H.M., Hussan B.K. (2019). Human resource management systems for enterprise organizations: a review. Periodicals of Engineering and Natural Sciences, vol. 7, no. 2, pp. 660–669.

7. Acikgoz Y., Davison K.H., Compagnone M., Laske M. (2020). Justice perceptions of artificial intelligence in selection. International Journal of Selection and Assessment, vol. 28, pp. 399–416.

8. DiRomualdo A., El Khoury D., Girimonte F. (2018). HR in the digital age: how digital technology will change HR organization structure, processes and roles. Strategic HR Review, vol. 17, pp. 234–242.

9. Verma S., Rubin J. (2018). Fairness definitions explained. Proceedings of the IEEE ACM International Workshop on Software Fairness, vol. 18, pp. 1–7.

10. Mehrabi N., Morstatter F., Saxena N., Lerman K., Galstyan A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, vol. 54, no. 6, pp. 1–35.

11. Alves G., Bernier F., Couceiro M., Makhlouf K., Palamidessi C., Zhioua S. (2023). Survey on fairness notions and related tensions. EURO Journal on Decision Processes, vol. 11, pp. 1–14.

12. Mujtaba D.F., Mahapatra N.R. (2024). Fairness in AI driven recruitment: challenges, metrics, methods, and future directions. arXiv preprint, vol. 1, pp. 1–17.

13. Fabris A., Baranowska N., Dennis M.J. et al. (2024). Fairness and bias in algorithmic hiring: a multidisciplinary survey. ACM Transactions on Intelligent Systems and Technology, vol. 16, no. 1, pp. 1–54.

14. Chen Z. (2023). Ethics and discrimination in artificial intelligence enabled recruitment practices. Humanities and Social Sciences Communications, vol. 10, pp. 1–12.

15. Capasso M., Arora P., Sharma D., Tacconi C. (2024). On the right to work in the age of artificial intelligence: ethical safeguards in algorithmic human resource management. Business and Human Rights Journal, vol. 9, issue 3, pp. 346–360.

16. Alon Barkat S., Busuioc M. (2021). Human AI interactions in public sector decision making: automation bias and selective adherence to algorithmic advice. Journal of Public Administration Research and Theory, vol. 33, issue 1, pp. 153–169

Downloads

Опубліковано

2025-12-26

Як цитувати

Олійник, О., Бікулов, Д., Головань, О., Маркова, С., & Верітова, О. (2025). Математичні методи цифровізації HR-процесів у публічному управлінні. Економіка і регіон Economics and Region, (4(99), 167–176. https://doi.org/10.26906/EiR.2025.4(99).4169

Номер

Розділ

МАТЕМАТИЧНІ МЕТОДИ, МОДЕЛІ Й ІНФОРМАЦІЙНІ ТЕХНОЛОГІЇ В ЕКОНОМІЦІ