Защитники говорят, что поставщики искусственного интеллекта на рабочем месте «игнорируют» предвзятость в отношении инвалидности
Продолжающиеся расследования двух федеральных агентств по заявлениям о том, что инструменты скрининга на базе искусственного интеллекта, продаваемые консалтинговой фирмой по менеджменту Aon, дискриминируют кандидатов на работу с ограниченными возможностями, показывают, что поставщики технологий не обращают внимания на предвзятое отношение к инвалидности, когда внедряют новые технологии, говорят защитники трудящихся.

И Комиссия США по равным возможностям трудоустройства, и Федеральная торговая комиссия расследуют жалобы, поданные Американским союзом гражданских свобод, который утверждает, что инструменты оценки личности, которые Aon продает работодателям, несправедливо отбирают кандидатов, страдающих аутизмом или имеющих психические расстройства, такие как депрессия или тревога. .
ACLU также заявил, что инструмент видеоскрининга Aon на основе искусственного интеллекта и его геймифицированные программы когнитивной оценки ставят в невыгодное положение людей с ограниченными возможностями, а также цветных людей.
В подробной 50-страничной жалобе, поданной в FTC в четверг, ACLU утверждает, что Aon обманула своих клиентов, заявив, что ее продукты «свободны от предвзятости» и могут помочь компаниям увеличить разнообразие. В этом документе ACLU сообщил, что в конце прошлого года он начал общеклассный иск с EEOC, утверждая, что оценка личности и когнитивные инструменты Aon дискриминируют клиента, который является двухрасовым и страдает аутизмом.
Мэтт Шерер, старший политический советник по правам трудящихся и технологиям в Центре демократии и технологий, сказал, что защитники гражданских прав уже давно особенно обеспокоены дискриминацией инвалидов, когда речь идет о программах проверки кандидатов на ИИ, поскольку компании, как правило, уделяют этому меньше внимания, чем другие формы предвзятости.
«В целом поставщики склонны полностью игнорировать влияние своей продукции на инвалидность, в большей степени, чем я бы сказал, расу, пол, этническую принадлежность и возраст», — сказал Шерер.
«Распространенная проблема»
Согласно жалобе ACLU на FTC, «личностные конструкции» в инструментах Aon совпадают с диагностическими критериями аутизма и нарушений психического здоровья.
Некоторые из вопросов напрямую совпадают с широко используемой самооценкой аутизма, называемой коэффициентом аутистического спектра, в том числе об измерении чьих-либо эмоций по выражению лица и чьем-то уровню комфорта в больших группах, что ставит людей с расстройствами аутистического спектра в невыгодное положение, согласно мнению в ACLU.
В ACLU также заявили, что вопросы Aon, направленные на определение чьего-либо уровня «позитивности» и «хладнокровия», могут привести к несправедливо низким баллам для кандидатов с симптомами депрессии и тревоги.
На своем сайте Aon сообщает, что ее «решения для оценки» используются множеством крупных работодателей, включая Procter & Gamble , Deloitte и Burger King .
Ольга Аксельрод, старший юрист программы расовой справедливости ACLU, подавшая жалобы, рассказала Law360, что другие поставщики продают аналогичные инструменты, и эти разработчики программного обеспечения и их клиенты рискуют нарушить Закон об американцах с ограниченными возможностями.
«Работодатели действительно должны понимать, что каждый раз, когда они используют личностную оценку, они подвергают себя высокому риску ответственности в соответствии с ADA», — сказала она. «Это связано как с тем, что оценки, как правило, отсеивают людей с ограниченными возможностями, не будучи тщательно адаптированными для измерения основных профессиональных функций, так и с тем, что тесты могут перейти черту в запросы об инвалидности или медицинские осмотры».
Aon — второй поставщик ИИ, вовлеченный в громкий судебный иск из-за инструментов, которые он продает работодателям. Поставщик программного обеспечения Workday ожидает, пока федеральный судья Калифорнии решит, можно ли продолжать коллективный иск соискателя работы по поводу его продуктов.
Судебную тяжбу начал неудачливый соискатель работы Дерек Мобли, который утверждал, что программное обеспечение Workday для проверки кандидатов, которое, по его словам, определяет, какие резюме передаются компаниям, нарушает ADA и другие федеральные законы о гражданских правах, непропорционально отклоняя чернокожих кандидатов. Старше и инвалид.
«К сожалению, это широко распространенная проблема», — сказал Аксельрод.
Нью-Йорка, Шерер из Центра демократии и технологий отметил, что первый в своем роде законопроект направленный на регулирование использования искусственного интеллекта при принятии решений о приеме на работу, явно обходит дискриминацию по инвалидности.
Местный закон № 144 города Нью-Йорка, вступивший в силу в прошлом году, требует от работодателей, использующих автоматизированные инструменты принятия решений о приеме на работу, проверять их на предмет потенциальной дискриминации, публиковать результаты этих проверок и предупреждать работников и претендентов на работу об использовании таких инструментов.
Однако мандат защищает только от дискриминации по расовому и гендерному признаку, хотя более ранняя версия этой меры была бы нацелена на более широкий набор проступков.
«Законопроект города Нью-Йорка был сужен в том, что компаниям приходилось проверять на наличие дискриминации, и я думаю, это показательно», — сказал Шерер. «Это открывает двери для компаний, которые могут прийти и сказать: «Эй, наш инструмент не предвзят, послушайте, мы тестируем то, что требует от нас постановление города Нью-Йорка»».
«Но на самом деле, как показывает эта жалоба, существуют формы предвзятости, выходящие за рамки простого проведения статистических тестов на нескольких защищенных группах», — сказал он.
Федеральный фокус искусственного интеллекта
Несмотря на этот пробел, федеральное правительство, особенно EEOC, не упустило из виду возможность предвзятого отношения к инвалидности в сфере ИИ.
«EEOC довольно агрессивно информирует общественность о том, что Закон об американцах с ограниченными возможностями применяется к работодателям, использующим ИИ», — сказал партнер Эпштейна Беккера Грина по трудоустройству Адам С. Форман, который часто консультирует предприятия по вопросам ИИ на рабочем месте.
Одним из первых официальных набегов комиссии на арену искусственного интеллекта стал документ технической помощи, ориентированный на ADA, выпущенный в середине 2022 года. В руководстве содержится несколько советов, которые помогут руководителям компаний избежать использования предвзятых технологий или использования этих программ таким образом, чтобы это негативно влияло на людей с ограниченными возможностями.
В следующем году EEOC и несколько других агентств, включая FTC, опубликовали совместное заявление, пообещав «решительно обеспечивать соблюдение своих коллективных полномочий и контролировать разработку и использование автоматизированных систем». В апреле агентства опубликовали еще одно заявление, подтверждающее это обязательство.
Эмили Ламм, сотрудник компании Gibson Dunn & Crutcher LLP , специализирующаяся на искусственном интеллекте и занятости, сказала, что федеральное правительство ясно дало понять, что оно будет использовать существующие законы, а не ждать, пока политики разработают новые, для решения проблем, которые они видят в этой технологии в будущем. Рабочие места.
«Общее понимание состоит в том, что эти агентства рассматривают существующие законы как инструменты искусственного интеллекта, поэтому ожидания работодателей и поставщиков в соответствии с этими законами не испаряются при использовании этих инструментов», — сказал Ламм.
Действия работодателя
Шерер сказал, что юридические риски, примером которых являются иски против Aon и Workday, еще не побудили сообщество поставщиков сформироваться.
«Во всяком случае, мы видели, как поставщики в этой сфере начали смыкать ряды против предложений, которые требуют раскрытия информации и регулирования, когда дело касается их инструментов», — сказал он.
Чтобы снизить вероятность предвзятости, адвокаты по трудоустройству со стороны руководства подчеркнули, что компании должны обеспечить кандидатам на работу возможность запросить разумное приспособление во время процесса и чтобы этот путь был им известен с самого начала.
«Важно, чтобы заявителям была предоставлена возможность попросить разумное приспособление», — сказал Ламм из компании Gibson Dunn. «Клиенты рассматривают возможность включения этого в описание вакансии или вообще на ранних этапах процесса подачи заявления».
Согласно указаниям EEOC, подобные изменения на рабочем месте могут включать специализированное оборудование, альтернативные форматы тестов или экзаменов или возможность работать в более спокойной обстановке.
Эксперты также заявили, что компании должны гарантировать, что любые вопросы, которые они задают в ходе собеседования, тесно связаны с требованиями к работе и не заходят на медицинскую территорию.
Согласно ADA, работодатели не могут запрашивать информацию, которая квалифицируется как «медицинское обследование», прежде чем предложить кандидату работу. Руководство EEOC также ясно дало понять, что оценка личности может быть проблематичной.
Например, задавание вопросов, которые пытаются определить уровень оптимизма заявителя, может противоречить ADA, поскольку он отсеивает работников с депрессией, заявила комиссия.
Хильке Шеллманн, доцент кафедры журналистики Нью-Йоркского университета, недавно написавшая книгу о том, как искусственный интеллект используется в контексте трудоустройства, говорит, что личностные тесты, как правило, не являются лучшим способом выявить лучшего кандидата.
«Когда вы спрашиваете людей об их личности, это может не отразиться на поведении на рабочем месте. Это довольно слабый способ оценить соискателей», — сказала она. «Вы хотите проверить навыки, способности и вещи, необходимые для работы, а не то, кем вы являетесь.
«Вот тут-то и закрадывается предвзятость», - сказала она.
Интересно?
Проголосуйте, чтобы увидеть результаты
😎👌
😀
😀
😀