Вчені виявили небезпечну рису ШІ: алгоритми переймають людські упередження
ШІ, який прийнято вважати неупередженим, насправді схильний повторювати та навіть підсилювати людські помилки. Аналізуючи роботу алгоритмів у сфері найму, фінансів та судочинства, вчені дійшли висновку: машина не створює нові упередження, а лише "успадковує" їх із суспільної історії.
Про це інформує РБК-Україна з посиланням на Techxsplore.
Більше цікавого: ChatGPT раптово почав згадувати гоблінів без причини: вчені пояснили проблему Чому ШІ помиляється?Дослідники пояснюють: головна проблема полягає у даних, на яких тренують нейромережі. Наприклад, якщо компанія у минулому рідше просувала жінок по службі, ШІ вивчить цю закономірність і почне автоматично надавати перевагу чоловікам у майбутньому, навіть якщо йому прямо не вказували на стать кандидатів.
Спадковість: ШІ не вигадує дискримінацію - він її переймає з досвіду попередніх людських рішень.
Ефект "об'єктивності": через те, що рішення видає комп'ютер, люди схильні сприймати їх як беззаперечну істину, не помічаючи закладених у програму помилок.
Проблема "невидимих" меншин і "скляних стель"Стандартні перевірки алгоритмів зазвичай фокусуються лише на одній ознаці, наприклад, тільки на статі або ж расі. Проте вчені зазначають, що у реальному житті ці характеристики перетинаються, створюючи складніші форми дискримінації.
Приховані помилки: система може здаватися чесною, якщо порівнювати чоловіків і жінок окремо, але водночас систематично відхиляти заявки старших жінок із національних меншин.
Брак релевантних кейсів: оскільки такі підгрупи зазвичай невеликі, алгоритм не бачить достатньо прикладів для навчання. У результаті він просто застосовує до них загальні шаблони, які можуть бути абсолютно некоректними.
Гроші та кредити: ціна помилки алгоритмуУ банківській сфері ШІ часто трактує низький дохід або коротку кредитну історію як ознаку ненадійності. Проте часто це лише наслідок того, що певні громади історично мали менше доступу до фінансових послуг. У результаті людина, яка реально спроможна виплатити кредит, отримує відмову лише тому, що машина вважає її соціальну групу "ризикованою".
Чи можливо навчити ШІ справедливості?Фахівці наголошують, що справедливість - це не математичне рівняння, яке можна розв'язати один раз. Це безперервний процес, який має включати:
Залучення громад: впливати на розробку алгоритмів мають не лише технічні спеціалісти, а й люди, чиї інтереси ці системи зачіпають.
Постійний моніторинг: суспільство змінюється, і те, що було прийнятним сьогодні, може стати джерелом шкоди вже завтра.
Відповідальність: компанії повинні мати механізми виправлення або навіть повного відключення упереджених ШІ-систем.
"Питання тепер не в тому, чи може ШІ бути ідеально чесним, а в тому, хто контролюватиме ці алгоритми та як змусити їх працювати на користь усього суспільства, а не лише більшості", - підсумовують вчені.
Ще більше цікавого:
- ШІ починає контролювати людські відчуття: футуролог попередив про нову цифрову реальність
- ШІ навчили говорити "я не знаю": як це зменшує галюцинації у відповідях