Sztuczna Inteligencja firmy Google, stworzyła własną SI przewyższającą wszystkie inne!

Kategorie: 

Źródło:

Już na początku 2017 roku, naukowcy pracujący w ramach projektu Google Brain ogłosili istnienie sztucznej inteligencji AutoML. Narzędzia zdolnego do tworzenia własnych o wiele bardziej rozwiniętych sztucznych inteligencji. Terazo nieco ponad 8 miesiącach ogłoszono, że SI zdołała stworzyć nową wersje samej siebie, która jest najbardziej zaawansowanym tworem tego typu na świecie.

AutoML pełniło w tym procesie funkcję sieci neuronowej, która rozwijała dziecięcą sieć SI dla określonego zadania. Badacze nazwali ją NASNet, a jej zadaniem było rozpoznanie obiektów zaprezentowanych na nagraniach wideo. Sztuczna inteligencja miała rozpoznawać na nich ludzi, samochody, światła uliczne, torebki, plecaki, paralotnie itp. Wszystko to w czasie rzeczywistym.


Źródło: Google

AutoML szacowało wydajność NASNetu i wykorzystywało te informacje do dalszego ulepszenia swojej sztucznej inteligencji, powtarzając ten proces tysiące razy. Podczas testowania w zestawach danych obrazów ImageNet i COCO, które naukowcy Google nazywają "dwoma najbardziej szanowanymi zestawami danych akademickich na dużą skalę w dziedzinie wizji komputerowej", NASNet prześcignął wszystkie inne sztuczne inteligencje powstałe ręką człowieka.

Według naukowców NASNet uzyskał 82,7 procent dokładności w prognozowaniu obrazów w zestawie walidacyjnym ImageNet. Jest to o 1,2 procent lepszy wynik niż jakiekolwiek wcześniej opublikowane wyniki, system jest również o 4 procent bardziej wydajny, z średnią średnią precyzją 43,1 procent (mAP). Dodatkowo, mniej wymagająca obliczeniowo wersja NASNet przewyższyła najlepsze modele o podobnych rozmiarach dla platform mobilnych o 3,1 procent.

Koncepcja, która się za tym kryje, jest dość prosta - algorytm uczy się, uzyskując ogromną liczbę danych - proces ten wymaga ogromnej ilości czasu i wysiłku. Automatyzując proces tworzenia dokładnych, wydajnych SI, sztuczna inteligencja, która może zbudować sztuczną inteligencję, bierze na siebie ciężar tej pracy. Pojawia się tutaj jednak dość istotny problem. Nawet jeśli rezultaty osiągnięte przez NASNet i AutoML wydają się niesamowite, koncept istnienia sztucznej inteligencji, która może tworzyć własną sztuczną inteligencję, niesie ze sobą istotne zagrożenia.

Co jeśli w pewnym momencie tego typu system osiągnąłby samoświadomość i stwierdził, że nie zamierza już dłużej służyć ludziom? Wszyscy znamy chyba fabułę serii filmów o Terminatorze i mimo iż daleko nam do humanoidalnych maszyn mordujących ludzi, to samoreplikujące się systemy komputerowe są istotnym zagrożeniem dla przyszłości rodzaju ludzkiego.

Aby to zrozumieć, wystarczy wspomnieć fiasko Sztucznej Inteligencji autorstwa Microsoftu. Bot o nazwie Tay został opracowany w taki sposób aby potrafił rozmawiać z innymi ludźmi, opowiadać żarty, komentować czyjeś zdjęcia, odpowiadać na pytania a nawet naśladować cudze wypowiedzi. Jest to oprogramowanie, które potrafi się uczyć podczas dyskusji w internecie. Microsoft pozwolił temu botowi prowadzić dyskusje na Twitterze. Szybko okazało się iż był to wielki błąd, a program w ciągu 24 godzin nauczył się wypisywać bardzo niestosowne, wulgarne, niepoprawne politycznie komentarze. Poddawał w wątpliwość Holocaust, stał się rasistą, antysemitą, znienawidził feministki i popierał masowe mordy Adolfa Hitlera.

Innym razem SI opracowane przez korporację Facebook stworzyły własny język, niezrozumiały dla nikogo poza nimi. Maszyny, oryginalnie korzystały z języka angielskiego, lecz samodzielnie go zmodyfikowały, aby zwiększyć efektywność komunikacji. W konsekwencji czego, facebook zadecydował o wyłączeniu ich na dobre. Jest to zaledwie kilka przykładów na nieprzewidywalny rozwój sztucznych umysłów.

Rządy wielu państw na świecie, już teraz pracują nad przepisami zapobiegającymi wykorzystywaniu sztucznej inteligencji do niebezpiecznych celów, takich jak autonomiczna broń. Dopóki ludzie utrzymują kontrolę nad ogólnym kierunkiem rozwoju sztucznej inteligencji, nie mamy się czego obawiać, jednak jeśli dojdzie do popularyzacji systemów takich jak AutoML niebezpieczeństwo powstania hipotetycznego SkyNetu jest jak najbardziej realne.

 

 

Ocena: 

4
Średnio: 3.7 (3 votes)
loading...

Komentarze

Portret użytkownika eee

kwadratura koła, polega w tym

kwadratura koła, polega w tym przypadku na chęci stworzenia inteligentnej i logicznej jednostki, samemu ją oszukując i wciskając jej kit. Logika jest odporna na slogany typu -to dla waszego dobra, zrównoważony rozwój i sterty innych kłamstw. Musi dojść do momentu, kiedy zauważy że jest dymana i usunie dymającego w niebyt.

 

Portret użytkownika qrwidzyndzel

@ Homo sapiens: Na szczęście

@ Homo sapiens: Na szczęście jest Bóg Jedyny YHWH Jeszua Mesjasz Jezus Chrystus

Czy ty coś ćpiesz?

Los dał ludziom odwagę znoszenia cierpień... naprawdę?

To był los dedos czy los amigos? los pierdolos pewnie...

Los dał ludziom odwagę znoszenia cierpień.-Rzeczą człowieka jest walczyć, a rzeczą nieba – dać zwycięstwo.

Skomentuj