Блог
Коли AI зупиняє таланти: як дискримінація щодо людей з інвалідністю проявляється в IT

Сучасні підходи у підборі кадрів на IT-позиції дедалі частіше залежать від автоматизованих систем – від відбору резюме до відео-співбесід та аналізу поведінки. Утім, заощаджуючи час HR-ів, такі інструменти нерідко відтворюють існуючі соціальні упередження та відсікають таланти, які мали б отримати запрошення на співбесіду.

Зображення: cnbc.com
Як це виявляється на практиці
Дослідження Університету Мельбурна (2025) виявило, що кандидати з акцентами або мовними особливостями (наприклад, через інвалідність) стикаються з помилковим розумінням їх мови – похибка досягає 22% для австралійців, порівняно з <10 % для носіїв англійської з США (джерело: The Guardian). Така нечесність призводить до того, що їхнє інтерв’ю оцінюється нижче, навіть за однакових професійних навичок.
У сфері LLM-ранжування (процес використання AI моделей, подібних до ChatGPT, для оцінки та упорядкування списку елементів (веб сторінок, документів, товарів, результатів пошуку, резюме) є свідчення, що згадки в резюме про участь у заходах або проектах, пов’язаних із інвалідністю, знижували шанси високої оцінки GPT-4 – навіть якщо формат і зміст резюме був ідентичним (джерело: arXiv). Розширене дослідження на arXiv (2025) показало, що кандидати, які вказували відсутність інвалідності, отримували перевагу, навіть над тими, хто просто не розкривав свій статус.
Чому це особливо болісно саме для IT-галузі
Щоб відібрати програміста, DevOps-ника або тестувальника, роботодавець покладається на алгоритми, які:
- навчаються на даних, де люди з інвалідністю – рідкість або вони відсутні;
- не враховують контекст (наприклад, перерва на лікування, використання допоміжних технологій) як перевагу, а часто навпаки – як “відхилення”;
- формують оцінки на основі паттернів, якими люди з інвалідністю не відповідають.
Це стосується не лише етапу найму, а й моніторингу продуктивності: інструменти, що відстежують клік-активність або інші показники, можуть невірно інтерпретувати поведінку при довших паузах або незвичному ритмі роботи (джерело: Technical.ly).
Чому автоматизація не вирішує проблему сама по собі
Дослідження Університету Південної Австралії (2025) повідомляє, що ШІ може допомогти покращити різноманітність найму, лише якщо:
- Система може пояснити свої рішення з позиції інклюзії.
- Компанія має чіткі DEI-індикатори (quantity + quality, а не лише цифри).
- Існує організаційна підтримка, яка спонукає HR критично трактувати результати AI, а не сліпо їм довіряти (джерело: Home Tech, Xplore).
Основні проблеми, що потребують уваги та як їх вирішити
Проблема AI у IT-відборі для людей з інвалідністю звертає увагу на соціальні упередження та важливі проблеми, які ховаються в коді в технології:
- системи працюють з неповними або спотвореними даними;
- відсутня прозорість – як кандидати, так і HR не знають, чому рішення ухвалені саме так;
- бракує аудиту – відсутні регулярні перевірки на дискримінацію;
- акцент лише на ефективність, а не на справедливість.
Щоб пом’якшити дискримінацію через ШІ, варто вжити такі кроки:
- проведення bias-аудиту перед впровадженням AI-рішень у відбір;
- гарантувати людський перегляд важливих рішень: залишити опцію ручного перегляду рішень;
- залучати спеціалістів та людей з інвалідністю до тестування продукту – впроваджувати “інклюзивний дизайн” від самого початку;
- розробляти політики пояснення рішень AI для HR та кандидатів;
- розвивати культуру позитивних кейсів: поширювати історії про успіх людей з інвалідністю в IT, які пройшли справжній technical-screen.
Alite Recruiting вважає, що найсучасніші технології HR повинні не лише шукати ідеальні CV, а й сприяти фахівцям, які можуть проявити себе найкраще за правильного до них ставлення. Ми активно впроваджуємо принцип inclusive design у всі етапи підбору IT-фахівців, забезпечуємо прозорість AI-рішень і захищаємо людський фактор у кожному відборі.