Please use this identifier to cite or link to this item:
https://elib.bsu.by/handle/123456789/342881| Title: | Объяснимый искусственный интеллект в кадровой аналитике: анализ факторов производительности |
| Other Titles: | Explainable artificial intelligence in human resource analytics: analysis of performance factors / A. N. Kazinets |
| Authors: | Козинец, А. Н. |
| Keywords: | ЭБ БГУ::ОБЩЕСТВЕННЫЕ НАУКИ::Экономика и экономические науки |
| Issue Date: | 2025 |
| Publisher: | Минск : БГУ |
| Citation: | Журнал Белорусского государственного университета. Экономика = Journal of the Belarusian State University. Economics. – 2025. – № 2. – С. 30-41 |
| Abstract: | В условиях цифровизации и роста значения человеческого капитала в кадровой аналитике особую актуальность приобретают модели объяснимого искусственного интеллекта (explainable artificial intelligence). С использованием градиентной модели XGBoost анализируется влияние надпрофессиональных навыков и цифровых компетенций на ключевые показатели эффективности сотрудников. Для интерпретации вклада признаков используется метод SHAP, обеспечивающий прозрачность прогнозов. Разрабатывается методология, применяемая на этапах отбора открытых данных, генерации признаков и интерпретации модели. Устанавливается, что такие факторы, как коммуникабельность, цифровая грамотность и стаж, оказывают значимое влияние на результативность труда. Обсуждаются управленческие последствия применения объяснимого искусственного интеллекта в поддержке решений по развитию персонала. Подчеркивается важность интерпретируемых моделей для повышения доверия к алгоритмам в кадровой аналитике. |
| Abstract (in another language): | In the context of digitalisation and the growing importance of human capital, explainable artificial intelligence models in human resource analytics are particularly relevant. Using the XGBoost gradient model, the impact of transversal skills and digital competencies on key employee performance indicators is analysed. The SHAP method, which ensures forecast transparency, is used to interpret the contribution of features. A methodology is developed for the stages of open data selection, feature generation, and model interpretation. It is established that factors such as communication skills, digital literacy, and tenure have a significant impact on performance. The managerial consequences of using explainable artificial intelligence to support human resource development decisions are discussed. The importance of interpretable models for increasing trust in algorithms in human resource analytics is emphasised. |
| URI: | https://elib.bsu.by/handle/123456789/342881 |
| ISSN: | 2520-6206 |
| Licence: | info:eu-repo/semantics/openAccess |
| Appears in Collections: | 2025, №2 |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

