Produkty cyfrowe mogą wykluczać konkretne grupy odbiorców m.in. ze względu na pochodzenie etniczne, płeć czy wiek. Kiedy stajemy na inteligentnej wadze, jesteśmy poddawani ocenie i porównywani ze standardami mierzonymi przez algorytm, który ktoś wcześniej wybrał i zaprogramował.
▫️ Dlaczego technologie, które traktują nas coraz bardziej personalnie, coraz wnikliwiej analizują nasze jednostkowe zachowania, decyzje i upodobania, równocześnie powielają stereotypy?
▫️ Czy ich twórcy celowo programują je w ten sposób?
▫️ Jak projektować nowe technologie, by nie wykluczać całych grup odbiorców?
Nierówności mogą pojawić się wszędzie: począwszy od procesu zbierania danych, przez klasyfikację i analizę rzeczywistości przeprowadzane z ich pomocą, po interes firm.
Będziemy rozmawiać o wykluczeniu, które w świecie technologii może przyjąć niejedno oblicze. Przyjrzymy się rozwiązaniom od poziomu budowania zróżnicowanych zespołów po tworzenie standardów dotyczących projektowania i budowy usług i produktów cyfrowych.