
Rezultat działania swoistej superinteligencji. Zdjęcie Weroniki.
Zatrzymać rozwoju AI nie można. Korzyści z zastosowania myślących urządzeń są dla firm zbyt duże, by zrezygnować z nich w imię dobra ludzkości. Tym bardziej, że klienci uwielbiają produkty, myślące za nich. Oraz ufają im bezgranicznie - gotowi utopić się z samochodem w morzu czy jeziorze, bo GPS taką drogę wskazuje. Poza tym, nie tylko produkty sztucznie inteligentne to, na razie, sawanci ( w znaczeniu: genialni idioci). Firmy i inne struktury działające na rynku również są jednokierunkowe (nastawione na zysk), choć niekoniecznie potrafią działać optymalnie.
Klęska ludzkości w zderzeniu z jej własnym wynalazkiem - AGI jest, według dzisiejszego stanu rzeczy, przesądzona. Bo to wynik bardzo nierównomiernego rozwoju . Szeroko pojętą technologię rozwijamy bardzo szybko, siebie natomiast rozwijamy niezwykle wolno. Łatwo to wytłumaczyć: do rozwoju technologii wystarczy garstka wybitnych badaczy, konstruktorów, projektantów i innych. Oni nie muszą ani oświecać, ani przekonywać mas o potrzebie zrobienia tego czy tamtego. Żeby rozwijać siebie - zarówno pojedyncze osoby jak grupy ludzi, społeczności, społeczeństwa, trzeba siebie poznać, dotrzeć z rezultatami procesu poznania do wszystkich, przekonać wszystkich o konieczności postępowania według, dających się praktycznie zastosować, norm moralnych i innych. My ludzie, po pierwsze, dalecy jesteśmy od poznania siebie, po drugie, nie dysponujemy żadną uniwersalną teorią etyczną, z której dałoby się wyprowadzić uniwersalne zasady moralne. Nie wiemy też czego chcemy od życia, gospodarki, państwa itd. (to znaczy, chcemy, żeby było dobrze, a nawet lepiej nam, niekoniecznie innym, co podstawą budowy uniwersalnych zasad być nie może).
Jaką zwierzchnią zasadę, hierarchię wartości, kryteria optymalizacji narzucimy superinteligencji? Nie szkodzić ludziom? Również naszym wrogom? Zresztą czy, na przykład, produkcja smakowitej, acz tuczącej nieco żywności szkodzi ludziom? Jeśli szkodzi, to AGI winna nie dopuścić do jej produkcji? Najbardziej ludzie szkodzą sobie sami. Strach pomyśleć, co wymyśli w związku z tym superinteligencja. Jest nas na Ziemi ponad siedem miliardów i liczba ta rośnie, stanowiąc coraz większe obciążenie dla zasobów planety. To się musi źle skończyć, o ile trend się nie odwróci. Ja, jako superinteligencja, w ciągu paru pokoleń, zminiaturyzowałbym ludzi przynajmniej dziesięciokrotnie. Człowiek o wzroście 17,5 cm, zamiast 175 cm, potrzebowałby o wiele mniej żywności, tlenu i przestrzeni, a i wrogów naturalnych by mu przybyło.
Załóżmy: przybywa do nas superinteligencja, przyjazna i grzeczna. Pyta: czego wam potrzeba? - Nieśmiertelności, braku chorób, braku starości, dostatniego życia, żadnych wojen, katastrof żywiołowych - odpowiedzielibyśmy chórem. Przy czym, na przykład, islamiści mieliby zdanie odrębne, ponieważ im spieszno do raju. Pytanie, czy dowolna superinteligencja potrafi z piasku ukręcić bicz, a z marnego bladawca uczynić Istotę Nieśmiertelną? Może potrafi, wykorzystując nasz brak precyzji, według pomysłów licznych autorów sf. Zamiast Istoty, zrobi Rzecz Wiecznotrwałą i już. Sumując: jesteśmy niegotowi na spotkanie sztucznej superinteligencji. Pozostaje tylko nadzieja, że nie potrafimy jej stworzyć .
Zamiast komentarza:
OdpowiedzUsuńhttps://youtu.be/7U9FuRnyiqk
;-)
Na pewno pracują nad taką maszyną. Moim zdaniem, największy problem przy jej stworzeniu, to ograniczona ilość zdarzeń. Sukcesy urządzeń prognozujących przyszłość są, między innymi, oparte na wielkiej ilości rozgrywek szachowych, wyścigów konnych itp. Zamachów, na szczęście, jest niewiele.
OdpowiedzUsuńTo co teraz przeżywamy (frustracja ludu, rewolucja ludu zachodniego) to w jakiejś części efekt wykorzystywania technologii. Można zarządzać, robić interesy bez większego problemu na duże odległości i do tego produkować tam gdzie taniej.
OdpowiedzUsuńA może to wszystko, to właśnie jakiś etap w naszym rozwoju, który nas doprowadzi do konkluzji, do pewnej rzeczywistości z jej ilością ograniczeń związanych ze wzajemnym oddziaływaniem oraz ze zrozumieniem wynikających z tego zagrożeń, że zbudowanie świadomości, powiedzmy syntetycznej świadomości, Sztucznej Inteligencji nastąpi w momencie gdy na to będziemy gotowi?
Kiedyś mieliśmy takiego fuksa z bronią atomową. Okazało się, że mocarstwa muszą w sposób bardziej subtelny podchodzić do siebie nawzajem gdyż ewentualny zwycięzca osiągnąłby sukces porównywalny z tym zwycięzcą, który pokonał gałąź, trzydzieści metrów nad ziemią, siedząc równocześnie na niej...
Co by było jakbyśmy wymyślili taką broń w sposób jakiegoś hipotetycznego skoku z pominięciem innych zdarzeń, na przykład z pięćset lat wcześniej?
Dzisiejszy świat zdominowany jest przez ludzi, nie do końca potrafiących poradzić sobie z otaczającą ich rzeczywistością. Wierzą w jakieś duchy, reinkarnacje, filozoficzne teorie strun mające zapewnić wymiary dla dusz i w inne bzdury.
Może muszą na własne oczy zobaczyć do czego prowadzi, zapodany w kampanii wyborczej świat, w którym to wszystko można rozwiązać, każdy problem tego świata załatwić w bardzo prosty sposób, który teraz jest ukrywany przez rządzących. Rzeczywistość z pewnością ich rozczaruje. Szkoda, że negatywne efekty tego rozczarowania, tych prymitywnych ludzi dotkną również nas :(
Kiedyś przeżyli nasi przodkowie drugą wojnę światową i to spowodowało zupełnie inną pozycję postrzegania rzeczywistości przez obserwatora, że możliwe jest to, że jesteśmy sobie nawzajem zrobić takie piekło.
Być może jutro kiedy odkryjemy co to jest świadomość, jak działa, będziemy właśnie na to gotowi. Pod każdym względem. Także na poziomie korporacji, w których też przecież pracują ludzie bo przygotujemy się na to, z każdej strony barykady, że proste rozwiązania, skomplikowanych niezwykle problemów mogą być tymi zbyt prostymi aby mogły zadziałać.
Jak wcześniej oczywiście nawzajem się nie wyrżniemy co do jednej sztuki...