Momencik, trwa przetwarzanie danych   loading-animation

Mistrzowie.org

Pokaż menu
Szukaj

Amazon

Zobacz następny
Dodaj nowy komentarz
avatar Ariegi
-3 5

Pozwolę sobie wyrazić opinię o algorytmach firmy Amazon. Kiedy pracowałem w firmie kurierskiej i pisaliśmy do Amazon, z prośbą o iskra dodatkowe dane kontaktowe do odbiorcy, żeby umożliwić dostarczenie paczki, 100% przesyłek od Amazon było porzucanych (niszczonych) z powodu braku reakcji. Tzn. dostawaliśmy zawsze automatyczną odpowiedź od bota, proszącą o numer referencyjny (który zawsze jest zawarty w pierwszej wiadomości) i na i na tym kończyła się interakcja bota, bo na następną wiadomość już nie odpowiadał.

Odpowiedz
avatar FriendzoneMaster
1 3

@Ariegi: Ale wiesz czym różni się prosty bot odpowiadający na maile od "uczącego się" algorytmu? Mam wrażenie, że nie masz zielonego pojęcia.

Odpowiedz
avatar FriendzoneMaster
2 4

No i algorytm poszedł w odstawkę. Jeśli fakty nie zgadzają się z jedyną słuszną ideologią.........

Odpowiedz
avatar ZONTAR
3 5

@FriendzoneMaster: Najlepsze jest to, że problem wynikał z błędnego podejścia do sprawy od samego początku. Przede wszystkim algorytm uczył się na podstawie decyzji podejmowanych przez ludzi zatrudniających. Problem nie dotyczył płci potencjalnego pracownika, a treści. System nauczył się, że mniejsze prawdopodobieństwo zatrudnienia ma osoba ze słowem "kobiet" w swoim CV. Nie chodzi tu o płeć osoby. Byłeś trenerem drużyny siatkarskiej kobiet, też wpadasz w te ramy. Logika maszyny jest nieubłagana. Nauczyła się tego od ludzi, więc jeśli już, to powinni zweryfikować skąd pochodzą dane na których algorytm wyłapał taki szablon i w ten sposób go zastosował. Przyczyną mogło być chociażby to, że rekruterzy świadomie byli bardziej niechętni do przyjmowania osób po specjalnych szkołach dla kobiet, czy biorących udział w wydarzeniach tylko dla kobiet. Może w praktyce okazało się, że osoby po takich szkołach mają niższy poziom edukacji, może umiejętności interpersonalne mieli niewłaściwe. Maszyna opiera się na statystyce. Tworzy wzorce, dzieli CV ze względu na wpadanie w dany wzorzec i na podstawie statystyki je ocenia. Jak połowa CV z daną frazą przeszła, a połowa nie, to fraza nie ma znaczenia. Jak jednak wyłapało "women's" i zauważyło, że wyraźnie więcej kandydatów odrzucono z tej puli niż w przypadku pozostałych, to jest to jak najbardziej oczekiwane zachowanie. Znalazło zależność i zaczęło ją stosować. Narzędzia uczące się są w stanie jedynie powielać mechanizmy, które człowiek (często podświadomie) wykonuje. Po zatrudnieniu wielu osób może się okazać, że dużo większą szansę mają ludzie z danej uczelni. Mimo, że nikt rekrutując ich nie faworyzował tej uczelni, to algorytm zauważy i zastosuje już tą zależność. Tak działa uczenie się. To samo było w przypadku systemów rozpoznawania twarzy. Uczysz go na Azjatach, dla odmiany wrzucasz też jakieś zwierzęta i przedmioty. System złapał, że człowiek ma jasną skórę, a podobne rysy i ciemny pysk ma małpa. Później wrzucasz murzyna i jeb, afera na pół świata. Jakby nie patrzeć, maszyna się dopiero uczy i skoro pierwszy raz widziała murzyna to mogła go pomylić z małpą. Może to nie jest poprawne politycznie, ale porównując murzyna, azjatę i jakiś gatunek człekokształtnej małpy można stwierdzić, że więcej wspólnych cech ma murzyn z małpą. Dopiero jak wskażesz algorytmowi błąd, to wyszuka nowe wzorce pozwalające odróżnić małpę od murzyna. Może z automatu uznał, że ciemna karnacja to małpa, bo do tej pory to działało. Teraz weźmie pod uwagę kolejne czynniki. Nawet jeśli kryterium koloru skóry zostanie, czy to źle? Raczej nie, w końcu prawdopodobieństwo spotkania małpy o jasnej karnacji jest bardzo rzadkie, więc jeśli rozpoznana twarz jest jasna, to na 99% nie jest ta ciemna małpa. Jak karnacja jest ciemna, to może być małpa, może być murzyn, trzeba uwzględnić więcej czynników. Ludzie nie rozumieją technologii i metod uczenia maszyn, a później są wielce zdziwieni. Całe piękno uczenia maszyn polega na tym, że maszyna wyszukuje wzorce o których człowiek nie pomyślał. Z pewnością wrzucając zdjęcia przestępców i ucząc program do rozpoznawania potencjalnych przestępców dosyć szybko ogarnie, że w USA meksykanie czy czarni są w grupie ryzyka. Może i taka opinia nie jest politycznie poprawna, ale statystycznie jest prawidłowa.

Odpowiedz
avatar FriendzoneMaster
2 4

@ZONTAR: Ale mi nie musisz tego tłumaczyć. Poza tym to właśnie prowadzi do tego, o czym ja napisałem - co jakiś czas któraś wielka firma rezygnuje ze swojego 'AI' (choć to określenie bardzo na wyrost), bo okazuje się, że jest ono niepoprawne politycznie. Szok. Maszyna kieruje się najprostszą i najoczywistszą interpretacją faktów, które się jej dostarcza, a kompletnie ignoruje wydumane teorie i tłumaczenia 'postępowego' świata. No kto by pomyślał?

Odpowiedz
Udostępnij