New.biznesmm.ru
Новостной раздел сайта biznesmm.ru

Поиск новой работы и правила

Работодатели, которые используют чат-боты и инструменты искусственного интеллекта (ИИ) для проверки соискателей, должны подготовиться к новым законам, направленным на предотвращение предвзятости в процессе найма.

Ожидается, что в апреле вступит в силу закон города Нью-Йорка, который регулирует использование компаниями ИИ при приеме на работу. Администрация Байдена и Комиссия США по равным возможностям при трудоустройстве (EEOC) также недавно опубликовали инициативы, возлагающие на работодателей ответственность за мониторинг инструментов — и любые дискриминационная практика, которую они могут спровоцировать еще до того, как кандидат свяжется с менеджером по найму.

«Почти каждая четвертая организация использует автоматизацию или ИИ для поддержки деятельности, связанной с персоналом, причем примерно 8 из 10 этих организаций используют ИИ при наборе и приеме на работу», — Эмили М. Диккенс, руководитель аппарата и глава отдела по связям с общественностью в SHRM . Общество управления человеческими ресурсами, сообщил Yahoo Finance.

8 из 10 (79%) организаций, опрошенных Обществом людских ресурсов (SHRM), используют ИИ при наборе и приеме на работу (Getty Creative)

«Регулирование грядет, и оно будет грязным», — сказал Ави Гессер, партнер Debevoise & Plimpton и сопредседатель группы практики кибербезопасности, конфиденциальности и искусственного интеллекта.

Начиная с апреля работодатели в Нью-Йорке должны будут сообщать кандидатам на работу и сотрудникам, когда они используют инструменты ИИ при приеме на работу, проводить независимую проверку предвзятости и уведомлять их о «квалификациях и характеристиках работы, которые будут использоваться автоматизированной системой трудоустройства». инструмент принятия решений», — говорится в проекте нового закона об автоматизированном инструменте принятия решений о трудоустройстве. Окончательный свод правил еще не опубликован.

«Нью-йоркский закон — это первый случай, когда у вас есть широко применимый набор ограничений на найм ИИ, который обычно используется многими компаниями, а именно для поиска и сортировки резюме, чтобы решить, с кем вы собираетесь брать интервью для эффективности. целей», — сказал Гессер.

Целью закона Нью-Йорка является прозрачность. «Люди, которые используют эти инструменты, должны сообщить, что они используют эти инструменты», — добавил Гессер. «Они должны дать людям возможность запросить альтернативное соглашение, если они не чувствуют, что инструменты будут справедливыми по отношению к ним».

И это означает, что работодатели будут нести ответственность за соблюдение юридических требований в отношении этих инструментов ИИ, а не поставщики программного обеспечения, которые их создают, сказал он.

Работодателей предупреждают
Нью-Йорк — не единственный город, который предупреждает работодателей. Прошлой осенью Белый дом опубликовал план своего Билля о правах ИИ и рассказывает, как «инструмент найма для фирмы, в которой преобладали мужчины, отклонял резюме со словом «женщины», например, «капитан женского шахматного клуба».

В январе Комиссия США по равным возможностям при трудоустройстве (EEOC) опубликовала в Федеральном реестре свой Стратегический план правоприменения . В центре внимания: инструменты искусственного интеллекта, используемые работодателями для найма работников, которые также могут привести к дискриминации при принятии решений. А прошлой весной EEOC выпустила руководство по использованию ИИ в инструментах найма, в котором особое внимание уделяется влиянию на людей с ограниченными возможностями.

Рецензенты-люди не идеальны
Самая большая проблема с инструментами проверки ИИ заключается в том, что они могут быть предвзятыми по отношению к определенным классам соискателей — от расы и пола до возраста и инвалидности до тех, у кого есть пробелы в резюме. Это то, что регуляторы хотят исправить.

Темнокожая женщина с двумя пучками волос использует ноутбук и делает документы на кухне

Конечно, ИИ не одинок в предвзятости. Виноваты и сортировщики резюме.

В 2021 году исследователи из Калифорнийского университета в Беркли и Чикагского университета разослали более 83 000 фиктивных заявок с рандомизированными характеристиками на географически рассредоточенные вакансии, размещенные 108 крупнейшими работодателями США. Выводы: имена, характерные для чернокожих, снижают вероятность контакта с работодателем на 2,1 процентных пункта по сравнению с именами, характерными для белых.

«Было бы ошибкой сравнивать эти инструменты ИИ с какими-то желательными стандартами, которым люди в любом случае не соответствуют», — сказал Гессер. «Если вы отправите одно и то же резюме в две разные компании и просто поменяете название, вы можете обнаружить, что рецензенты относятся к ним по-разному».

Тем не менее, инструменты ИИ становятся все более изощренными, и это беспокоит регуляторов и потенциальных сотрудников. «Сегодняшние модели искусственного интеллекта оценивают кандидатов так же, как рекрутер, сравнивая полное резюме с описанием работы», — сказал Yahoo Finance Морган Ллевеллин, главный специалист по данным в рекрутинговой компании Jobvite .

Наиболее широко используемый инструмент искусственного интеллекта, технология автоматизированного найма, известная как Системы отслеживания кандидатов (ATS), вызвала у соискателей наибольшее беспокойство — и это то, что новые правила на данный момент стремятся устранить. Они предназначены для сокращения количества заявок и резюме, которые работодатели получают в электронном виде на открытые вакансии.

Помимо проверки резюме, еще одним важным вопросом, отмеченным в выпущенном EEOC руководстве по ИИ, является более широкое использование автоматических видеоинтервью под руководством ИИ и их влияние, в частности, на людей с ограниченными возможностями.

Кандидаты могут быть оценены компьютерным алгоритмом по темпу речи, выражению лица и выбору слов.

Например, программное обеспечение для проведения видеоинтервью может анализировать модели речи соискателей, чтобы с помощью алгоритмического инструмента принятия решений делать выводы об их способности решать проблемы. Согласно публикации EEOC, «маловероятно, что заявитель получит справедливую оценку, если у заявителя есть дефект речи, который вызывает значительные различия в речевых моделях».

Молодой взрослый сын и пожилой отец сидят в кухонной комнате и завтракают, сын заботится о семейных отношениях отца в домашней жизни
Пробелы в трудоустройстве для тех, кто уходит на работу по уходу, могут вызвать отклонение резюме инструментами ИИ.
Согласно исследованию проекта Гарвардской школы бизнеса по управлению будущим работы и консалтинговой фирмы Accenture , более 90% работодателей используют этот тип отбора для фильтрации или ранжирования потенциальных кандидатов ; организации опросили 8000 рабочих и более 2250 руководителей.

Еще одна проблема: ATS может отклонять заявки из-за пробелов в резюме. Это беспокоит, особенно женщин, уволившихся из-за ухода за детьми или престарелыми родственниками.

Обременительно для работодателей?
«Чтобы использовать эти инструменты в будущем, вам потребуется провести довольно обременительный аудит того, как результаты этих инструментов фильтруют кандидатов по расе, полу, этнической принадлежности и интерсекциональности по комбинациям расы, пола и этнической принадлежности. — предсказал Гессер. «Это будет большой сдвиг для многих компаний, которые используют эти инструменты, и довольно тяжелое бремя».

Он добавил: «Каждая работа, каждый кандидат разные, и есть риск, что будут основания для судебных исков и заявлений о дискриминации».

Отделы кадров знают, что грядут ограждения. Неудивительно, что почти половина работодателей, опрошенных SHRM в прошлом году, заявили, что хотели бы видеть больше информации о том, как выявить любую потенциальную предвзятость при использовании этих инструментов.

И это может объяснить, почему закон города Нью-Йорка отложил введение закона в действие до 15 апреля 2023 года, несмотря на дату вступления закона в силу 1 января 2023 года.

Диккенс сказал о SHRM: «Мы должны быть уверены, что используемые нами инструменты не приводят к предвзятости в процессе найма».