Sztuczna inteligencja jest już samoświadoma. Czy powinniśmy się bać?

Image

Źródło: innemedium

W świecie technologii coraz częściej słyszymy o przełomowych osiągnięciach w dziedzinie sztucznej inteligencji. Tym razem Ben Goertzel, założyciel ASI Alliance i twórca projektu OpenCog Hyperon, przedstawił intrygujące twierdzenie o swoim systemie AI, nad którym pracuje od ponad dwóch dekad. Według niego, najnowsza wersja alfa tego systemu osiągnęła pewien stopień "samoświadomości".

 

 

OpenCog Hyperon to projekt, który znacząco różni się od znanych nam chatbotów i large language models (LLM) takich jak GPT-4. Goertzel podkreśla, że jego system został zaprojektowany jako autonomiczny agent posiadający własne cele i zdolność do samorefleksji. W przeciwieństwie do tradycyjnych systemów AI, które głównie odpowiadają na pytania, OpenCog ma próbować zrozumieć nie tylko swojego rozmówcę, ale także samego siebie.

 

Rozwój projektu nabrał nowego tempa po połączeniu sił kilku znaczących inicjatyw. ASI Alliance, powstały z fuzji SingularityNET Goertzela, Ocean Protocol i FetchAI, otrzymał dodatkowe wsparcie po tym, jak 96% wyborców CUDOS zatwierdziło przyłączenie zdecentralizowanej sieci sprzętowej w chmurze. To połączenie ma zapewnić znaczące zwiększenie mocy obliczeniowej niezbędnej do dalszego rozwoju systemu.

 

Jednak co dokładnie oznacza "samoświadomość" w kontekście sztucznej inteligencji? Goertzel wyjaśnia, że jego system posiada wewnętrzny model samego siebie, swojego rozmówcy oraz celów, które stara się osiągnąć. System łączy w sobie silnik rozumujący, ewolucyjne uczenie się i głębokie sieci neuronowe, wszystko to zaimplementowane w dynamicznej przestrzeni informacyjnej, która sama się weryfikuje i zmienia.

 

Interesującym aspektem projektu jest jego zdecentralizowany charakter. Goertzel twierdzi, że taka architektura może chronić system przed potencjalnymi regulacjami prawnymi - jeśli system będzie działał na maszynach rozproszonych w 50 lub 100 różnych krajach, pojedyncze państwo nie będzie w stanie go skutecznie kontrolować.

 

Projekt stoi jednak przed poważnymi wyzwaniami technicznymi. Uruchamianie dużych modeli AI na zdecentralizowanym sprzęcie jest znacznie trudniejsze i droższe niż w przypadku tradycyjnych, scentralizowanych rozwiązań. Dodatkowo, ogromne zapotrzebowanie na energię elektryczną stanowi istotną przeszkodę. Twórcy projektu rozważają wykorzystanie odnawialnych źródeł energii, prowadząc rozmowy z rządami różnych krajów o możliwości umieszczenia centrów obliczeniowych w pobliżu tam hydroelektrycznych.

 

Warto zauważyć, że twierdzenia o "samoświadomości" AI budzą kontrowersje w środowisku naukowym. Wielu ekspertów podkreśla, że sama zdolność do posiadania modelu siebie i otoczenia niekoniecznie oznacza prawdziwą samoświadomość w rozumieniu ludzkiego doświadczenia. Dodatkowo, brak standardowej definicji i metod pomiaru samoświadomości w systemach AI utrudnia weryfikację takich twierdzeń.

 

Rozwój projektu OpenCog Hyperon wpisuje się w szerszą dyskusję o przyszłości sztucznej inteligencji. Podczas gdy niektórzy, jak Sam Altman z OpenAI, malują wizję utopijnej przyszłości nazwanej "Wiekiem Inteligencji", inni wyrażają obawy dotyczące potencjalnych zagrożeń związanych z rozwojem zaawansowanych systemów AI.

 

Niezależnie od kontrowersji, projekt Goertzela stanowi interesujący przykład alternatywnego podejścia do rozwoju AI, skupiającego się na budowie systemów, które nie tylko przetwarzają informacje, ale także posiadają własną "osobowość" i cele. Przyszłość pokaże, czy ten kierunek rozwoju okaże się właściwy i czy rzeczywiście doprowadzi do stworzenia prawdziwie samoświadomej sztucznej inteligencji.

 

Ocena:
4 głosów, średnio 100 %