Защо системите с лицево разпознаване на пола са обществена опасност?

4
848

Опасностите, които могат да бъдат породени от използването на технологии за лицево разпознаване, като даване на прекалено голяма информационна сила в ръцете на определени компании и институции, както и допускането на грешки, които могат да имат сериозни последици върху обществения живот, бяха дискутирани обстойно през последните няколко години. Но групите за цифрови права казват, че понастоящем една доста коварна употреба на този род технологии се промъква измежду общественото внимание и регулациите: използване на технологията за предсказване на нечий пол и сексуална ориентация. Сега стартира нова кампания за забрана на тези системи в рамките на ЕС.

Опитът да се предскаже нечий пол или сексуалност чрез дигитализирани следи е коренно погрешен, казва Os Keyes, изследовател, който е писал подробно по темата. Тази технология има тенденция да свежда пола до опростен бинарен резултат и в резултат на това, този тип системи често са във вреда на транс хората и небинарните хора, които може да не се вписват в тези тесни категории. Когато въпросните системи се използват за важни решения като това дали някой да получи достъп до определено физическо пространство или проверка на нечия самоличност в рамките на онлайн услуга, това води до дискриминация.

„Да се опитате да идентифицирате нечий пол, докато наблюдавате даден човек отстрани, е като да попитате какъв е вкусът на синята миризма“, иронизира Кийс в интервю пред популярния технологичен портал The Verge. „Въпросът не е толкова, че отговорът, който тези системи могат да дадат ще бъде грешен, а че въпросът изначално няма никакъв смисъл.“

Прогнозите на пола и сексуалната ориентация могат да бъдат направени с помощта на различни входящи данни, от анализ на нечий глас до обобщаване на навиците му за пазаруване. Но нарастването на използването на лицево разпознаване даде на компаниите и изследователите нов източник на данни, както и нова власт до обществения живот, която досега като чели не беше ставала особено сериозен повод за тревога сред широката общественост.

Търговските системи за разпознаване на лица, включително тези, продавани от големи технологични компании като Amazon и Microsoft, често предлагат класификация на пола като стандартна характеристика. Прогнозирането на сексуалната ориентация чрез лицево разпознаване се среща значително по-рядко, но изследователите все пак са изградили подобни системи, като една от най-популярните сред тях е т.нар. алгоритъм „AI gaydar“. Има сериозни доказателства, че тази технология не работи добре дори в полеви условия по време на вътрешни тестове, но изглежда това не е попречило тя да се разпространи, макар и в тясна сфера.

Всъщност, използването на системи за лицево разпознаване с цел прогнозиране на нечий пол или сексуална ориентация, не е нещо съвсем ново или извънредно. Подобни дейности са извършвани за различни научни цели и в действителност сведенията показват, че изследователите са успели да открият положителна корелация между определени физически черти на лицето и особености на външния вид и хомосексуалната ориентация. Въпреки това обаче, изследователите, работили по подобен род изследвания, никога не са претендирали, че са постигнали съвършенство в тези алгоритми, нито че определени черти на лицето или на външния вид със сигурност свидетелстват за определен вид сексуалност.

„Дори хората, които за първи път са тествали такива системи са казвали, че ако някой диктатор попадне на тях, едва ли би се поколебал много да ги използва за масово сканиране на лицата на безброй много хора, за да се опита да установи хората с различна сексуалност, ако е решил да прилага репресии срещу тях, и да сметне за необходимо да ги изпрати в лагер например“, казва Кийс по отношение на алгоритмите за разпознаване на сексуалната ориентация. „И това не е хипербола. В Чеченската република правят точно това, без изобщо да са им необходими автоматизирани системи.“ 

В случаите на използване на автоматизирани системи за разпознаване на пола, тези алгоритми обикновено разчитат на тесни и остарели разбирания за пола като единствено биологична обусловеност. Така настоящите технологии работят на изключително примитивен принцип – ако някой има къса коса, той се категоризира като мъж, ако носи грим, то значи със сигурност е жена. Подобни предположения се правят въз основа на биометрични данни като костна структура и форма на лицето. Резултатът е, че хората, които не се вписват лесно в тези две категории – като много транс и небинарни хора, могат да бъдат категоризирани погрешно, а най-малкото когато изобщо не подлежат на категоризация в бинарния стил. Резултатът е, че тези хора могат да бъдат дискриминирани в много институции, учреждения, компании и други организации, които биха разчитали на подобни системи.

Настоящите приложения на тези технологии за разпознаване на лица включват цифрови билбордове, които анализират минувачите, за да им показват целеви реклами, дигитални пространства като социалното приложения Giggle, което е предназначено „само за момичета“, като системата избира кои потребители да допусне въз основа на идентификация на пола от качени селфита, както и маркетингови каскади, като наскорошна кампания за раздаване на безплатни билети за метрото на жените в Берлин, за да отпразнуват Деня на равното заплащане на труда, като местните системи са използвали технологии за лицево разпознаване, за да открият кои от пътуващите са жени. Изследователите са обсъждали и много по-потенциално опасни случаи на употреба, като внедряване на технологията за ограничаване на влизането в зони, разделени на полова принадлежност – като бани и съблекални.

Да бъдеш отхвърлен от машина в такъв сценарий може да бъде не само унизително и неудобно, но и да предизвика още по-тежка реакция. Антитранс нагласите и истерията по отношение на достъпа до обществените тоалетни вече доведоха до многобройни случаи на тормоз от насилие, тъй като минувачите често решават, че е в тяхната юрисдикция да следят за това дали всеки влиза в тоалетната според неговата полова принадлежност, такава, каквато изглежда на външен вид. Ако някой бъде обявен публично от привидно безпристрастна машина за това, че се опитва да влезе в помещение, което не е за неговия пол, то това само би могло да легитимира насилието над хора, към които има стереотипи.

Даниел Лойфер, политически анализатор в групата за цифрови права Access Now, която ръководи кампанията за забрана на тези приложения, казва, че тази технология е несъвместима с ангажимента на ЕС за правата на човека.

„Ако живеете в общество, ангажирано да отстоява тези права, тогава единственото решение е забраната на подобен род дискриминационни технологии“, казва Лойфър пред The Verge. „Автоматичното разпознаване на пола е напълно в противоречие с идеята хората да могат да изразяват своята полова идентичност извън бинарния модел между мъже и жени или по различен начина от пола, който им е бил определен при раждането.“

Access Now, заедно с повече от 60 други неправителствени организации, изпратиха писмо до Европейската комисия с молба да забрани тази технология. Кампанията, която е подкрепена от международни защитнически организации за правата на ЛГБТ + общността, идва, когато Европейската комисия обмисля нови разпоредби за ИИ в целия ЕС. Проектът предполага пълна забрана на използването на системите за разпознаване на лица в публични пространства и Льофер казва, че това показва колко сериозно ЕС приема проблема с регулирането на ИИ.

„В момента има уникален момент с това законодателство в ЕС, където можем да призовем за обръщан на внимание към проблемите, които привличат нашите погледи сега, като ние ще се възползваме изцяло от възможността за това“, казва Лойфер. „ЕС непрекъснато се дистанцира от политиките за лицево разпознаване в САЩ или Китай, заявявайки, че има своите европейски ценности по тези въпроси, и именно затова ние трябва да ги отстояваме точно в тези моменти.“

Кейс посочва, че забраната на тази технология трябва да представлява интерес за всички, „независимо от това какво мислят относно транс хората“, тъй като тези системи засилват стигматизацията и дискриминацията, базирайки се върху остарелите разбирания за пола.

„Когато погледнете как разсъждават тези изследователи, които създават въпросните системи, от далеч изглежда сякаш чрез машина на времето са излезли от 50-те години на миналия век директно в наши дни“, казва Кийс. „Една система, която видях, беше концептуализирана да показва бързи и мощни коли на мъже и красиви рокли на жени. Първо искам да попитам, някой има ли интерес към грозни рокли? И второ, създателите на тази система, смятат ли, че жените не могат да шофират?“

Международното летище на Маяма използва технология за лицево разпознаване при паспортния контрол. Идентификацията на пола може да се използва в несвързани системи, като например системата за разпознаване на лица на граничните пунктове, през която все повече хора напускащи граница преминават. Използването на такъв тип системи, които идентифицират пола на преминаващите лица, може да бъде интегрирано и за много по-фини или кардинално важни цели, отколкото просто за това да се определя какви реклами да бъдат показвани на хората. Често, казва Кийс, идентификацията на пола се използва за информационни цели, които нямат нищо общо със самия пол.

Например, ако алгоритъм за разпознаване на лица се използва, за да се забрани влизането в дадена сграда или държава, като се съпостави човек лицето на човек на всички снимки в дадена база данни, системите могат да бъдат използвани за стесняване на търсенето чрез филтриране на резултатите по пол. Тогава, ако системата се заблуди за човека пред себе си, като по този начин ще създаде невидима на пръв поглед грешка, която няма нищо общо с търсения краен резултат.

Кийс смята, че този вид системи са дълбоко притеснителни в много случаи, тъй като компаниите не споделят за това как разработват собствените си технологии за лицево разпознаване. „Това може да е повсеместно в съществуващите системи за разпознаване на лица и ние просто не можем да кажем нищо за тях, тъй като те са една черна кутия, до която нямаме достъп“, казва тя. През 2018 г. например транс шофьорите на Uber бяха отхвърлени от системата за сигурност на компанията, която е изисквала от тях да потвърдят самоличността си чрез изпращане на селфи. Защо тези лица са били отхвърлени от системата, не е ясно, казва Кийс, но е възможно дефектното разпознаване на пола да е изиграло своята роля.

В крайна сметка технологиите, които се опитват да сведат света до бинарни класификации, базирани на прости евристики, винаги ще се провалят, когато са изправени пред разнообразието и сложността на човешката природа. Кийз признава, че машинното разпознаване на пола работи за голям брой хора, но казва, че основните недостатъци в системата неизбежно ще навредят на хората, които вече са маргинализирани до известна степен от обществото и ще принудят всички към по-тесни форми на самоизразяване.

„Вече живеем в общество, което е залага много на визуалната експресия и е силно поляризирано по отношение на въпроса за половете. Това, което правят този род технологии, е да направят някои стигматизации и стереотипизации по-автоматични и много по-трудни за оспорване.“

1 2 гласа
Оценете статията
Абонирай се
Извести ме за
guest
4 Коментара
стари
нови оценка
Отзиви
Всички коментари