Ludzki umysł podatny na błędy poznawcze ma bowiem tendencję do faworyzowania informacji zgodnych z naszym światopoglądem lub udziela odpowiedzi na problem w zależności od tego, jak został on sformułowany. Algorytmom tego rodzaju niedoskonałości są obce. Wydaje się, że w przeciwieństwie do ludzi są one obiektywne. Istnieje nawet przekonanie, że nauka może nas wybawić od politycznych sporów. Zawdzięczamy je Robertowi Boyle’owi - XVII-wiecznemu brytyjskiemu filozofowi przyrody, który uważał, że lekarstwem będzie bezstronna metoda prowadząca do odkrywania niepodważalnych prawd. Ale czy faktycznie tak jest? Algorytmy pisane są przecież przez ludzi. I tu pojawia się kwestia uprzedzeń algorytmicznych i pytanie, czy potrafimy oddzielić algorytmy od naszego światopoglądu? Czy da się sprawić, aby nasze przesądy nie przenikały do tworzonych przez nas algorytmów?
Przykłady na dyskryminujące zastosowanie algorytmów możemy mnożyć, przedstawmy kilka tych najbardziej znanych.
Aparat fotograficzny pewnej znanej firmy z funkcją do wykrywania mrugnięć nie jest w stanie zrobić zdjęcia niektórym azjatyckim użytkownikom, gdyż system nie odczytuje ich oczu jako w pełni otwartych. Tłumacz Google nie tłumaczy rodzajników i tłumaczy wszystko jako „neutralne genderowo”, czyli w rodzaju męskim. System rozpoznawania twarzy w twarzach czarnoskórych użytkowników widzi twarze goryli. System bezpieczeństwa wykrywa twarze czarnoskórych obywateli jako potencjalnie zagrażające bezpieczeństwu dwa razy częściej niż białych obywateli.
Dlaczego tak się dzieje?
Algorytmy działają na podstawie wiedzy zgromadzonej w bazach danych. A bazy danych i zapisane w nich informacje tworzone są przez człowieka, więc jeśli mamy milion zdjęć rowerów, przy okazji klasyfikacji kolejnego roweru, algorytm porówna go do pozostałych. Podobnie działają systemy rozpoznawania głosu, które porównują słowa z milionami słów już wypowiedzianych. Jeżeli baza danych jest niekompletna algorytm zawiera martwe punkty. Te punkty mogą stanowić problem. Tu pojawia się najważniejsze pytanie, czy ludzie tworzący systemy algorytmiczne robią to w imię równości, różnorodności i pluralizmu będącego jedną z podstawowych cech demokracji, czy w imię własnych uprzedzeń?
Istnieje zawsze osoba lub grupa osób, które decydują co trafia do bazy danych, z której algorytm się uczy, więc firma produkująca aparaty fotograficzne uczy algorytm rozpoznawać otwarte oko jako normę. To dlatego Azjaci nie będą się w tej normie mieścić. Za każdym algorytmem stoją ludzie a wraz z nimi wartości, poglądy, kultura, cały kontekst ich życiowego doświadczenia. Uprzedzenia algorytmów mogą tworzone być nieświadomie, gdyż kultura tak mocno wpływa na sposób myślenia jej reprezentantów, że nie uświadamiają sobie, że można myśleć inaczej i co innego traktować jako społeczną normę.
Ale to tylko jedna strona medalu.
Tak samo można bowiem pisać algorytmy mające wpływać na ludzkie wybory i decyzje w celu osiągnięcia określonych korzyści. A to daje nieograniczoną władzę, o czym mogliśmy się przekonać przy okazji ostatnich wyborów prezydenckich w USA, czy kampanii Brexitowej w UK.
A zatem, algorytmy są polityczne i polityczne będą tak długo, jak długo używając ich będziemy zastanawiać się kto je tworzy i kontroluje oraz w jakim celu.
Takimi i podobnymi zagadnieniami dotyczącymi społecznego otoczenia nauki zajmujemy się na Otwartych Seminariach Naukowych Człowiek – Biznes –Technologie, na które serdecznie zapraszamy.