Jeżeli przeglądasz czasami Monster Galerię, to z pewnością natknąłeś się nieraz na obrazek, który - wydawałoby się - omyłkowo znalazł się w kategorii dla dorosłych. To nie przypadek ani pomyłka... To wujek Google mówi nam (a dokładnie Google Vision), że obrazek jest niegodny i bluźnierczy i zbyt pikantny i trzeba go dobrze schować. Wskazania wujka Googla są czasami baaaardzo dziwne...
Google Vision to produkt z kategorii AI & Machine Learning (sztuczna inteligencja oraz uczenie maszynowe), który zajmuje się rozpoznawaniem tego, co jest na obrazku. Jak wejdziecie na jego stronę, to możecie sami wrzucić różne obrazki i sprawdzić jak je ocenia Google. Google m.in. całkiem dobrze
odczytuje teksty na obrazku, rozpoznaje rodzaj obrazka (
memy, ilustracje, grafiki), rozpoznaje automatycznie co jest na obrazku (ludzie, samochody, przedmioty, miejsca) oraz ma sekcję sprawdzającą, czy treści są "
bezpieczne dla wyszukiwarki" (Safe Search), a dokładnie, czy zawierają "
explicit content", czyli treści dla dorosłych.
Ocenia obrazek w pięciu kategoriach: Adult (czyli porno), Spoof (memy), Medical (treść o charakterze medycznym), Violence (
przemoc) oraz Racy (pikantność, czyli treści
podniecające). Nie widzi tego czarno-biało, bo każdą z tych kategorii ocenia
z prawdopodobieństwem, od
very unlikely (bardzo nieprawdopodobne), przez
unlikely (mało prawdopodobne),
possible (możliwe), do likely (prawdopodobne) i
very likely (bardzo prawdopodobne).
Z tych danych korzysta sobie system reklam, czyli Google AdSense, wędrując i sprawdzając, co tam sobie serwisy publikują. Z racji nieograniczonej mocy obliczeniowej Google sprawdza codziennie WSZYSTKIE strony, na których pojawia się reklama, po to żeby reklama dziecięcych zabawek nie pojawiła się koło gołej baby.
Idea jest jak najbardziej słuszna, też nie chciałbym wydawać pieniędzy na reklamę, która utknie między kopulującymi golasami, przez co mojej reklamy nikt nawet nie zauważy, a ja za nią zapłacę komuś, kto zapłaci MILF-om za akrobacje przed kamerą.
I tu docieramy do kwestii problematycznej, czyli tego,
co AI od Google uznaje za goliznę, przemoc czy treści podniecające... Bo o ile pewne rzeczy są mocno oczywiste, to nadgorliwy mechanizm punktuje rzeczy "podobne do golizny" czy "podobne do przemocy", a które wcale takimi nie są.
Jeżeli Google Vision zaliczy obrazek do Likely Medical, Likely Violence, Possible adult, Likely Racy, to na tej jednej stronie wyłączane są reklamy i idzie ostrzeżenie. Nie ma możliwości odwołania, bo system działa automatycznie.
A że portal zarabia (i działa) głównie dzięki zarobkom z reklam, to cóż... musimy się zgodzić, nawet jeśli mamy WIELKIE WĄTPLIWOŚCI. Dlatego działamy proaktywnie, żeby nie załapać za dużo minusów u wujka Google, i sami sprawdzamy obrazki, a potem wyłączamy reklamy lub przenosimy do kategorii dla dorosłych.
Te różne wątpliwe, podobno podniecające (Racy) przypadki zaraz wam pokażemy.
Dobra, dobra. Chwila. Chcesz sobie skomentować lub ocenić komentujących?
Zaloguj się lub zarejestruj jako nieustraszony bojownik walczący z powagą