Що стосується закону про упередженість штучного інтелекту, який надійде 1 січня, залишаються питання без відповідей

Ознайомтеся з усіма сесіями на замовлення саміту Intelligent Security Summit тут.


1 січня 2023 року в Нью-Йорку набуде чинності Закон про автоматичний інструмент прийняття рішення про працевлаштування (AEDT) — один із перших у США, який спрямований на зменшення упередженості в рішеннях про наймання та працевлаштування за допомогою ШІ.

Відповідно до AEDT, роботодавець або агентство з працевлаштування буде незаконним використовувати штучний інтелект і технології на основі алгоритмів для оцінювання кандидатів і працівників Нью-Йорка, якщо вони не проводять незалежний аудит упередженості перед використанням інструментів працевлаштування штучного інтелекту. Підсумок: роботодавці Нью-Йорка візьмуть на себе зобов’язання щодо дотримання цих інструментів ШІ, а не постачальники програмного забезпечення, які їх створюють.

Але за словами Аві Гессера, партнера Debevoise & Plimpton і співголови Практичної групи з кібербезпеки, конфіденційності та штучного інтелекту, залишається лише кілька тижнів, і залишається багато питань без відповіді щодо правил.

Це тому, що хоча Департамент захисту прав споживачів і працівників міста Нью-Йорк оприлюднив запропоновані правила щодо впровадження закону ще у вересні та запросив коментарі, остаточні правила про те, як виглядатимуть перевірки, ще не опубліковані, через що компанії не знають, як діяти далі. переконайтеся, що вони відповідають закону.

Подія

Intelligent Security Summit On-Demand

Дізнайтеся про важливу роль штучного інтелекту та машинного навчання в кібербезпеці та конкретних галузевих прикладах. Дивіться сеанси за запитом сьогодні.

Дивіться тут

«Я думаю, що деякі компанії чекають, щоб побачити, якими є правила, а деякі припускають, що правила будуть запроваджені в тому вигляді, в якому вони були в чернетці, і поводяться відповідно», — сказав Гессер VentureBeat. «Є багато компаній, які навіть не впевнені, чи це правило стосується їх».

Закон AEDT був розроблений у відповідь на зростаючу кількість роботодавців, які звертаються до інструментів штучного інтелекту, щоб допомогти під час найму та прийняття інших рішень щодо працевлаштування. Майже кожна четверта організація вже використовує автоматизацію або штучний інтелект (ШІ) для підтримки найму, згідно з опитуванням Товариства управління людськими ресурсами в лютому 2022 року. Це використання ще більше серед великих роботодавців із 5000 і більше працівників (42%). Інструменти штучного інтелекту використовуються для перегляду резюме, підбору кандидатів на роботу, відповідей на запитання кандидатів і завершення оцінювання.

Але широке застосування цих інструментів призвело до занепокоєння регуляторів і законодавців щодо можливої ​​дискримінації та упередженості. Історії про упередженість в інструментах працевлаштування зі штучним інтелектом поширювалися роками, включно з рекрутинговою системою Amazon, яку було скасовано в 2018 році, оскільки вона «не любила жінок», або дослідження 2021 року, яке виявило упередженість із підтримкою штучного інтелекту проти темношкірих під час найму.

Це призвело до того, що в листопаді 2021 року міська рада Нью-Йорка проголосувала 38 проти 4 за прийняття законопроекту, який зрештою став Законом про автоматизований інструмент прийняття рішень про працевлаштування. Він зосередив увагу на «будь-якому обчислювальному процесі, отриманому за допомогою машинного навчання, статистичного моделювання, аналізу даних або штучного інтелекту; що видає спрощений вихід, включаючи оцінку, класифікацію або рекомендацію; і це суттєво допомагає людям приймати рішення щодо працевлаштування».

Пропоновані правила, оприлюднені у вересні, прояснили деякі неясності, сказав Гессер. «Вони звузили рамки того, що являє собою штучний інтелект», — пояснив він. «[The AI] має суттєво допомогти або замінити дискреційне прийняття рішень – якщо це одна річ із багатьох, з якою консультуються, цього, ймовірно, недостатньо. Це має керувати рішенням».

Це також обмежило його застосування складними моделями. «Таким чином, оскільки це просто простий алгоритм, який враховує деякі фактори, якщо він не перетворює це на схожий рахунок або не робить якийсь складний аналіз, він не зараховується», — сказав він.

Аудити упередженості є складними

Новий закон вимагає проведення незалежного «аудиту упередженості» для автоматизованих інструментів прийняття рішення про роботу, що включає оцінку їх впливу на стать, етнічну та расову приналежність. Але перевірка інструментів штучного інтелекту на предмет упередженості — непросте завдання, яке вимагає комплексного аналізу та доступу до великої кількості даних, пояснив Гессер.

Однак роботодавці можуть не мати доступу до інструменту, який би дозволив їм провести аудит, зазначив він, і незрозуміло, чи може роботодавець покладатися на сторонній аудит розробника. Окрема проблема полягає в тому, що багато компаній мають повний набір подібних даних, який часто надають кандидати на добровільній основі.

Ці дані також можуть намалювати оманливу картину расової, етнічної та гендерної різноманітності компанії, пояснив він. Наприклад, оскільки гендерні параметри обмежені чоловіками та жінками, немає жодних варіантів для тих, хто ідентифікує себе як трансгендера чи гендерно невідповідного.

Додаткові вказівки будуть

“Я передбачаю, що буде більше вказівок”, – сказав Гессер. «Цілком можливо, що може бути продовження терміну впровадження або затримка періоду виконання».

Деякі компанії проводять аудит самостійно, наскільки це можливо, або покладаються на аудит, проведений постачальниками. «Але мені незрозуміло, як має виглядати відповідність і чого достатньо», — пояснив він.

Це не є незвичайним для регулювання ШІ, зазначив він. «Це настільки нове, що не так багато прецедентів, на які можна було б орієнтуватися», — сказав він. Крім того, регулювання штучного інтелекту при прийомі на роботу є «дуже хитрим», на відміну від, наприклад, штучного інтелекту та кредитування, які мають кінцеву кількість прийнятних критеріїв і довгу історію використання моделей.

«З наймом кожна робота відрізняється. Кожен кандидат відрізняється”, – сказав він. «Це просто набагато складніша вправа, щоб розібратися в тому, що упереджено».

Гессер додав, що «ви не хочете, щоб ідеальне було ворогом хорошого». Тобто деякі інструменти працевлаштування зі штучним інтелектом покликані фактично зменшити упередженість, а також охопити більший пул претендентів, ніж це було б можливо за допомогою лише перевірки людьми.

«Але в той же час регулятори кажуть, що існує ризик того, що ці інструменти можуть бути використані неналежним чином, навмисно чи ненавмисно», — сказав він. «Тож ми хочемо переконатися, що люди несуть відповідальність».

Що це означає для більшого регулювання ШІ

Закон міста Нью-Йорк набув чинності в той момент, коли в Європейському Союзі розробляється більш широке регулювання штучного інтелекту, а в США прийнято низку законопроектів, пов’язаних із ШІ.

Розвиток регулювання штучного інтелекту часто є дискусією між «режимом регулювання, заснованим на ризиках», і «режимом продуктивності, заснованим на правах», – сказав Гессер. Закон Нью-Йорка «по суті є режимом, заснованим на правах — кожен, хто використовує інструмент, підлягає тим самим вимогам аудиту», пояснив він. З іншого боку, Закон ЄС про штучний інтелект намагається сформувати режим, заснований на оцінці ризику, для вирішення проблем штучного інтелекту з найбільшим ризиком.

У цьому випадку «йдеться про визнання того, що будуть деякі випадки використання з низьким рівнем ризику, які не вимагають важкого тягаря регулювання», — сказав він.

Загалом ШІ, ймовірно, піде шляхом регулювання конфіденційності, передбачив Ґесер — де набуває чинності всеосяжний європейський закон, який повільно просочується в різні державні та галузеві закони. «Американські компанії будуть скаржитися, що закони надто роздвоєні», — сказав він. «На Конгрес буде чинитися сильний тиск, щоб прийняти комплексний закон про ШІ».

Незалежно від того, яке регулювання штучного інтелекту вийде, Гессер рекомендує почати з внутрішньої програми управління та відповідності.

«Незалежно від того, чи це закон Нью-Йорка, чи закон ЄС, чи щось інше, регулювання штучного інтелекту наближається, і це буде справді безладно», — сказав він. «Кожна компанія має пройти власний шлях до того, що їй підходить — щоб збалансувати переваги цінності штучного інтелекту та регулятивні та репутаційні ризики, які це пов’язано».

Місія VentureBeat має стати цифровою міською площею для тих, хто приймає технічні рішення, щоб отримати знання про трансформаційні корпоративні технології та транзакції. Відкрийте для себе наші брифінги.

Leave a Comment