Sztuczna inteligencja i programy do analizy twarzy wchodzą do procesu rekrutacji. Technologia opracowana przez amerykańską firmę HireVue analizuje słownictwo, ton głosu i zapisuje ruchy twarzy przy odpowiedzi kandydatów na identyczne pytania.
W Wielkiej Brytanii pierwszy raz użyto tego we wrześniu, ale na świecie działa już od kilku lat. Już ok. 700 firm, w tym Vodafone, Hilton czy Urban Outfitters skorzystało z oprogramowania.
Z pewnością są znaczące korzyści. HireVue argumentuje, że przyspiesza proces zatrudnienia o ponad 90% dzięki szybkości w analizie danych. Jednak są też ważne zagrożenia, których powinniśmy być świadomi, jeśli mamy powierzyć zadanie rekrutacji sztucznej inteligencji.
Sztuczna inteligencja jest oparta o algorytmy porównujące kandydatów do bazy 25 tys. informacji o języku i mimice. Te z kolei są skompilowane z wywiadów zakończonych powodzeniem, a więc z rekrutacji, które dały wysoko ocenianego pracownika. 350 kryteriów lingwistycznych uwzględnia np. ton głosu, użycie słów czynnych/biernych, długość zdań czy szybkość mowy. W mimice przedmiotem analizy jest unoszenie brwi, ich marszczenie, stopień otwarcia oczu, zaciskanie warg, unoszenie brody czy uśmiech.
Fundamentalny problem, jak to często bywa ze sztuczną inteligencją, dotyczy środowiska, w jakim ona powstaje. Nie rodzi się w doskonałym społeczeństwie, lecz tym tworzonym przez nas, naznaczonym długą listą uprzedzeń, nierówności czy dyskryminacją. Dane, na których sztuczna inteligencja się uczy, opierają się na zastanych, istniejących już preferencjach.
W prosty sposób, na przykładzie wyszukiwań google, obrazuje to prof. Sofya Noble z UCLA w książce „Algorythms of Oppression” (Algorytmy opresji). Dla przykładu, jeśli wpiszemy w wyszukiwarkę „professor style” (jako styl ubioru), wyniki pokazują wyłącznie białych mężczyzn w średnim wieku. Jeśli wpiszemy „successful manager”, jest podobnie. Z kolei „housekeeping” (pomoc domowa) dostarcza obrazy wyłącznie kobiet.
Algorytmy nauczyły się więc, że profesorowie czy kadra kierownicza to głównie biali mężczyźni, a sprzątaczki to kobiety. I potwierdzając taką wiedzę algorytmy przyczyniają się do utrwalania stereotypów, a być może nawet ich wzmacniania. Dlatego warto kwestionować inteligencję sztucznej inteligencji. Rozwiązania przez nią dostarczane są z definicji konserwatywne, nie są otwarte na innowację i rozwój społeczny.
„Kapitał symboliczny”
Francuski socjolog Pierre Bourdieu zwracał w swojej pracy uwagę na to, jak powielane są nierówności, jak każdy z nas ma inny kapitał ekonomiczny i kulturowy. Środowisko dorastania, jakość nauczania, obecność lub nieobecność zajęć dodatkowych i wiele innych czynników – to może mieć decydujący wpływ na nasze możliwości intelektualne i inne mocne strony. Wpływa też na to, jak sami siebie postrzegamy, a więc poziom pewności siebie, wyznaczane sobie cele i szanse w życiu.
Inny słynny socjolog, Erving Goffman, mówił o poczuciu swojego miejsca. To wpojone przekonanie o przynależności, które skłania osoby o niższym kapitale (z mniej uprzywilejowanych grup) do pozostania w swoim „gorszym” miejscu. A to z kolei wyraża się w tym, jak mówimy, co o nas mówi nasze ciało. Są więc ci, którzy od wczesnych lat mają wysoką pewność siebie i świadomość zalet. Ale też wielu, którzy mogli nie być wystawieni na takie same praktyki kulturowe, w rezultacie czego mogą być bardziej skryci, wycofani. Mogą cierpieć z powodu kompleksu niższości.
To wszystko wychodzi podczas rozmowy o pracę. Spokój, pewność siebie, umiejętności językowe – to składowe „kapitału symbolicznego”, o którym mówił Bourdieu. Ci, którzy go posiadają, będą odnosili większe sukcesy, niezależnie od tego, czy te cechy wnoszą coś dobrego/nowego do wykonywanej pracy.
Oczywiście, w społeczeństwie zawsze mieliśmy z tym do czynienia. Jednak sztuczna inteligencja może to dodatkowo umocnić, zwłaszcza jeśli jest karmiona danymi z przeszłości. Prościej: firmy będą skłonne zatrudniać takich ludzi, jakich już zatrudniano.
Jest więc ryzyko, że premiowani będą ludzie z takim samym pochodzeniem. Algorytmy nie zostawiają miejsca na subiektywną ocenę, na ryzyko czy intuicję, że komuś należy dać szansę.
Dalej, taka technologia może prowadzić do odrzucenia tych, którzy mogą coś wnieść, ale po prostu nie pasują do profilu osób, które odpowiednio się uśmiechają czy mają pożądany ton głosu. A to w dłuższej perspektywie może okazać się niekorzystne dla samych zatrudniających, którzy ryzykują pominięcie talentów w bardziej niekonwencjonalnym opakowaniu.
Ważne zmartwienie dotyczące tej technologii to przypadkowe wykluczenie ludzi o różnorodnych cechach i dalsze uprzywilejowanie tych już uprzywilejowanych. Z zasady mają oni przecież wyższy kapitał społeczny i ekonomiczny, co ułatwia zdobywanie kolejnych cech ocenianych pozytywnie podczas rozmowy o pracę.
Obserwujemy więc kolejne wcielenie bardziej ogólnych problemów ze sztuczną inteligencją. Technologia budowana w oparciu o obecny stan społeczeństwa – z istniejącymi w nim nierównościami i uprzedzeniami – może powielać te schematy przy podejmowaniu decyzji.
Autor: Dr Ivan Manokha, wykładowca międzynarodowej polityki ekonomicznej na University of Oxford (tekst przedrukowany na licencji creative commons, oryginał dostępny na The Conversation). Grafika: Freepik.com
Facebook
RSS