Городской совет Нью-Йорка одобрил законопроект, согласно которому разработчики автоматизированных HR-инструментов для отбора кандидатов должны ежегодно проверять свои алгоритмы искусственного интеллекта – только после этого он сможет принимать решения о приеме людей на работу или их увольнении, пишет Forbes.
В случае принятия соответствующего закона речь пойдет об одной из первых в США и важных с юридической точки зрения мер по борьбе с дискриминацией со стороны технологий искусственного интеллекта. Цель законопроекта — проверить автоматизированные HR-инструменты на наличие сбоев, из-за которых соискатели подвергаются дискриминации по расовым, этническим или другим признакам. Если подобные меры начнут принимать повсеместно, в Америке резко повысится спрос на «цифровых охотников за багами».
Для удовлетворения будущего спроса понадобится гораздо больше квалифицированных кадров, специализирующихся на искусственном интеллекте. В настоящее время на рынке наблюдается дефицит специалистов по кибербезопасности, однако профессионалов в области технологий искусственного интеллекта еще меньше.
Сегодня многие компании предлагают крупное вознаграждение за выявление ошибок в области кибербезопасности, не обнаруженных ранее. Размер такого вознаграждения иногда может достигать сотен тысяч долларов.
Для удовлетворения будущего спроса понадобится гораздо больше квалифицированных кадров, специализирующихся на искусственном интеллекте. В настоящее время на рынке наблюдается дефицит специалистов по кибербезопасности.
Стоит отметить, что со временем алгоритмы совершенствуются, так как постоянно обрабатывают все больше и больше данных. А системы кибербезопасности меняются более медленно. Oхoтники за багами, кoтoрые будут заниматься oбнаружением предубеждений, должны быть готовы к рассмотрению того, как именно алгоритмы взаимодействуют с более пространными системами. В то же время многие проблемы в области кибербезопасности носят скорее точечный характер.