Продолжение: Сан-Франциско, первые в США, запретили технологию распознавания лиц полицией | Предыстория: Система распознавания лиц. Как она работает на примере Москвы и Лондона, - BBC |
CentralAsia (CA) - Axon, крупнейший производитель полицейских нательных камер в США, объявил, что не будет добавлять функцию распознавания лиц в видеорегистраторы для правоохранительных органов до тех пор, пока не будут решены этические проблемы. Принятое решение основывается на 42-страничном докладе Совета по этике искусственного интеллекта и полицейских технологий Axon, который компания создала в прошлом году.
В зависимости от качества сравниваемых изображений люди могут быть ложно идентифицированы, говорится в докладе. Ошибочные результаты вызывают беспокойство, особенно, когда это касается правоохранительных органов и связанных с ними потенциальных рисков. В его нынешнем состоянии, распознавание лиц не совсем точное при идентификации женщин по сравнению с мужчинами и молодых людей по сравнению с пожилыми. Как обсуждается в докладе, эта неточность усугубляется при попытке идентифицировать людей по их цвету кожи, затрагивая также тему расового неравенства.
Конфиденциальность - еще одна проблема. В нашем обществе, насыщенном камерами, распознавание лиц позволяет собирать личные данные о жизни людей: каких врачей они посещают, на какие секции ходят их дети, какие продукты они покупают или на каких встречах присутствуют. Без твердой политики и безопасности неясно, как долго эти изображения могут храниться или кто может получить к ним доступ. Даже если распознавание лиц работает точно и справедливо— а мы (компания Axon — ред.) подчеркиваем, что в настоящее время это не так,— эта технология значительно облегчает государственным органам вести наблюдение за гражданами и потенциально вмешиваться в их жизнь. Такого рода потеря конфиденциальности является и должна быть проблемой для каждого человека, но она также может представлять особую обеспокоенность для некоторых групп в обществе, таких как ЛГБТ, из-за возможных преследований.
Доклад содержит 6 основных выводов:
1. Технология распознавания лиц в настоящее время недостаточно надежна, чтобы этически оправдать ее использование на нательных камерах. По крайней мере, технология распознавания лиц не должна быть развернута до тех пор, пока она не будет работать с гораздо большей точностью и одинаково для разных рас, этнических групп, полов и других групп идентичности.
2. При оценке алгоритмов распознавания лиц, вместо того, чтобы говорить о “точности”, мы предпочитаем обсуждать ложноположительные и ложноотрицательные показатели.
3 Совет не желает одобрять разработку технологии распознавания лиц любого рода, которая может быть полностью настроена пользователем. Совет предпочитает модель, в которой доступные технологии ограничены в том, какие функции они могут выполнять, чтобы предотвратить злоупотребление правоохранительными органами.
4 Ни одна юрисдикция не должна применять технологию распознавания лиц, не пройдя через открытые, прозрачные и демократические процессы с возможностями для вклада мнения и возражения обществом.
5 Разработка продуктов распознавания лиц должна основываться на фактических преимуществах. До тех пор, пока эти преимущества не станут очевидными, нет необходимости обсуждать затраты или принятие какого-либо конкретного продукта.
6 При оценке затрат и выгод от потенциальных вариантов использования необходимо учитывать как реалии полицейской деятельности в Америке (и в других юрисдикциях), так и существующие технологические ограничения.
В состав этического совета, который составил доклад, входят 11 человек. Это представители правоохранительных органов, гражданские активисты, политики, учёные и IT-специалисты: Ali Farhadi, Barry Friedman, Christy E. Lopez, Jeremy Gillula, Jim Bueermann, Kathleen M. O’Toole, Mecole Jordan, Miles Brundage, Tracy Ann Kosa,Vera Bumpers, Walt McNeil.