Już 160 lat temu przewidziano zagrożenie ze strony sztucznej inteligencji

Image

Źródło: innemedium

W czasach, gdy Abraham Lincoln prowadził Stany Zjednoczone przez wojnę secesyjną, na drugim końcu świata, w odległej Nowej Zelandii, pewien hodowca owiec napisał list, który dziś można uznać za proroczy. 13 czerwca 1863 roku w gazecie "The Press" z Christchurch ukazał się tekst, który przewidział nie tylko powstanie sztucznej inteligencji, ale także związane z nią zagrożenia - dokładnie te same, których obawiamy się obecnie.

 

 

Samuel Butler, bo o nim mowa, opublikował swój list pod pseudonimem Cellarius. Jego wizja przyszłości była tak niezwykła i precyzyjna, że współcześni eksperci ds. SI nie mogą wyjść z podziwu nad jego przenikliwością. Butler, zainspirowany teorią ewolucji Darwina, przedstawił argumentację, która do złudzenia przypomina obecne dyskusje o bezpieczeństwie sztucznej inteligencji.

 

"Sami tworzymy naszych następców," pisał Butler. "Każdego dnia dodajemy do piękna i delikatności ich fizycznej organizacji. Codziennie dajemy im większą moc i wyposażamy w coraz bardziej pomysłowe mechanizmy samoregulujące i samodzielne, które będą dla nich tym, czym intelekt był dla rasy ludzkiej." Te słowa brzmią złowieszczo podobnie do współczesnych ostrzeżeń przed niekontrolowanym rozwojem SI.

 

Co najbardziej zdumiewające, Butler sformułował swoje przewidywania w czasach, gdy najbardziej zaawansowanymi urządzeniami obliczeniowymi były proste kalkulatory mechaniczne i suwaki logarytmiczne. Charles Babbage co prawda zaproponował swoją teoretyczną Maszynę Analityczną w 1837 roku, ale nigdy nie została ona zbudowana za jego życia. Pierwszy działający komputer sterowany programem miał pojawić się dopiero 70 lat później.

 

Butler przewidział nie tylko możliwość powstania świadomych maszyn, ale także ich zdolność do samoreplikacji i stopniowego przejmowania kontroli nad ludzkością. Porównał przyszłą relację między ludźmi a maszynami do obecnej relacji między ludźmi a zwierzętami domowymi, sugerując, że początkowo będziemy opiekunami maszyn, by ostatecznie stać się ich podwładnymi.

 

Te przemyślenia Butler rozwinął później w swojej powieści "Erewhon" z 1872 roku, przedstawiając społeczeństwo, które zakazało większości wynalazków mechanicznych i zniszczyło wszystkie maszyny stworzone w ciągu ostatnich 300 lat. To zastanawiające, jak bardzo jego fikcyjne rozwiązanie przypomina współczesne propozycje wstrzymania rozwoju SI czy nawet zniszczenia centrów danych, które pojawiły się w 2023 roku.

 

Obawy Butlera spotkały się ze zróżnicowanymi reakcjami. Niektórzy interpretowali jego pracę jako satyrę na teorię ewolucji Darwina, chociaż sam autor temu zaprzeczał. W liście do Darwina z 1865 roku Butler wyraził głębokie uznanie dla "O pochodzeniu gatunków", broniąc tej teorii przed krytykami w nowozelandzkiej prasie.

 

Historia zatoczyła koło - dwa lata temu świat mierzył się z tym, co można nazwać "wielkim strachem przed przejęciem władzy przez SI". Wypuszczenie GPT-4 przez OpenAI wywołało falę obaw o zachowania związane z dążeniem do władzy przez SI, co doprowadziło do powstania listów otwartych wzywających do globalnej pauzy w rozwoju sztucznej inteligencji. Sam dyrektor OpenAI, Sam Altman, zeznawał przed amerykańskim Senatem o zagrożeniach związanych z SI.

 

Butler zakończył swój list dramatycznym wezwaniem do walki: "Należy natychmiast wypowiedzieć im wojnę na śmierć i życie. Każda maszyna powinna zostać zniszczona przez osoby życzliwe swojemu gatunkowi." Jednak nawet wtedy obawiał się, że może być już za późno ze względu na rosnące uzależnienie ludzkości od maszyn - kolejna obserwacja, która okazała się proroczo trafna w dzisiejszych czasach.

 

Ocena:
6 głosów, średnio 100 %