Logo BSU

Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот документ: https://elib.bsu.by/handle/123456789/342881
Заглавие документа: Объяснимый искусственный интеллект в кадровой аналитике: анализ факторов производительности
Другое заглавие: Explainable artificial intelligence in human resource analytics: analysis of performance factors / A. N. Kazinets
Авторы: Козинец, А. Н.
Тема: ЭБ БГУ::ОБЩЕСТВЕННЫЕ НАУКИ::Экономика и экономические науки
Дата публикации: 2025
Издатель: Минск : БГУ
Библиографическое описание источника: Журнал Белорусского государственного университета. Экономика = Journal of the Belarusian State University. Economics. – 2025. – № 2. – С. 30-41
Аннотация: В условиях цифровизации и роста значения человеческого капитала в кадровой аналитике особую актуальность приобретают модели объяснимого искусственного интеллекта (explainable artificial intelligence). С использованием градиентной модели XGBoost анализируется влияние надпрофессиональных навыков и цифровых компетенций на ключевые показатели эффективности сотрудников. Для интерпретации вклада признаков используется метод SHAP, обеспечивающий прозрачность прогнозов. Разрабатывается методология, применяемая на этапах отбора открытых данных, генерации признаков и интерпретации модели. Устанавливается, что такие факторы, как коммуникабельность, цифровая грамотность и стаж, оказывают значимое влияние на результативность труда. Обсуждаются управленческие последствия применения объяснимого искусственного интеллекта в поддержке решений по развитию персонала. Подчеркивается важность интерпретируемых моделей для повышения доверия к алгоритмам в кадровой аналитике.
Аннотация (на другом языке): In the context of digitalisation and the growing importance of human capital, explainable artificial intelligence models in human resource analytics are particularly relevant. Using the XGBoost gradient model, the impact of transversal skills and digital competencies on key employee performance indicators is analysed. The SHAP method, which ensures forecast transparency, is used to interpret the contribution of features. A methodology is developed for the stages of open data selection, feature generation, and model interpretation. It is established that factors such as communication skills, digital literacy, and tenure have a significant impact on performance. The managerial consequences of using explainable artificial intelligence to support human resource development decisions are discussed. The importance of interpretable models for increasing trust in algorithms in human resource analytics is emphasised.
URI документа: https://elib.bsu.by/handle/123456789/342881
ISSN: 2520-6206
Лицензия: info:eu-repo/semantics/openAccess
Располагается в коллекциях:2025, №2

Полный текст документа:
Файл Описание РазмерФормат 
30-41.pdf977,22 kBAdobe PDFОткрыть
Показать полное описание документа Статистика Google Scholar



Все документы в Электронной библиотеке защищены авторским правом, все права сохранены.