Sieć neuronowa nauczyła się niepewności
Image
Naukowcy z MIT, stworzyli sieci neuronowe, które wiedzą, kiedy są godne zaufania. Algorytmy same zdają sobie sprawę, gdy nie są pewne wyjaśnienia danego problemu i informują o tym swoich użytkowników.
Wspomniane sieci neuronowe, zostały zaprojektowane w taki sposób, aby szacowały poziom zaufania, jakim można je obdarzyć. Opiera się to na systemie "Deep Evidential Regression", który tworzy punktację, opartą na jakości dostępnych danych. Zespół badawczy porównuje to z samochodem samojezdnym, który ma różne poziomy pewności, czy przejechać przez skrzyżowanie, czy czekać, na wszelki wypadek, jeśli sieć neuronowa jest mniej pewna swoich przewidywań.
Chociaż podobne zabezpieczenia były już wbudowane w sieci neuronowe, to, co je wyróżnia, to szybkość, z jaką działa, bez nadmiernych wymagań obliczeniowych - można je ukończyć w jednym przebiegu przez sieć, a nie w kilku, z poziomem ufności wyprowadzanym na w tym samym czasie co decyzja. Naukowcy przetestowali swój nowy system, zmuszając go do oceny głębi w różnych częściach obrazu.
Sieć wypadła dobrze w porównaniu z istniejącymi konfiguracjami, a jednocześnie oszacowała własną niepewność - momenty, w których była najmniej pewna, były rzeczywiście czasami błędne określanie głębokości. Sieć była nawet w stanie oznaczyć momenty, kiedy napotkała obrazy różniące się od danych, na których została przeszkolona. Naukowcy twierdzą, że są przekonani, że ich nowy, usprawniony test zaufania może pomóc w poprawie bezpieczeństwa w czasie rzeczywistym, chociaż praca nie została jeszcze recenzowana. Wyniki badania są już dostępne w sieci na stronie MIT.
- Dodaj komentarz
- 519 odsłon
od conajmniej 25 lat taka
od conajmniej 25 lat taka własność sieci neuronowych jest oczywistą oczywistością. i tylko twórca sieci decyduje, czy te wartości będą raportowane, czy decyzja sieci będzie zero-jedynkowa.
Dodaj komentarz