
Rezultat działania swoistej superinteligencji. Zdjęcie Weroniki.
Zatrzymać rozwoju AI nie można. Korzyści z zastosowania myślących urządzeń są dla firm zbyt duże, by zrezygnować z nich w imię dobra ludzkości. Tym bardziej, że klienci uwielbiają produkty, myślące za nich. Oraz ufają im bezgranicznie - gotowi utopić się z samochodem w morzu czy jeziorze, bo GPS taką drogę wskazuje. Poza tym, nie tylko produkty sztucznie inteligentne to, na razie, sawanci ( w znaczeniu: genialni idioci). Firmy i inne struktury działające na rynku również są jednokierunkowe (nastawione na zysk), choć niekoniecznie potrafią działać optymalnie.
Klęska ludzkości w zderzeniu z jej własnym wynalazkiem - AGI jest, według dzisiejszego stanu rzeczy, przesądzona. Bo to wynik bardzo nierównomiernego rozwoju . Szeroko pojętą technologię rozwijamy bardzo szybko, siebie natomiast rozwijamy niezwykle wolno. Łatwo to wytłumaczyć: do rozwoju technologii wystarczy garstka wybitnych badaczy, konstruktorów, projektantów i innych. Oni nie muszą ani oświecać, ani przekonywać mas o potrzebie zrobienia tego czy tamtego. Żeby rozwijać siebie - zarówno pojedyncze osoby jak grupy ludzi, społeczności, społeczeństwa, trzeba siebie poznać, dotrzeć z rezultatami procesu poznania do wszystkich, przekonać wszystkich o konieczności postępowania według, dających się praktycznie zastosować, norm moralnych i innych. My ludzie, po pierwsze, dalecy jesteśmy od poznania siebie, po drugie, nie dysponujemy żadną uniwersalną teorią etyczną, z której dałoby się wyprowadzić uniwersalne zasady moralne. Nie wiemy też czego chcemy od życia, gospodarki, państwa itd. (to znaczy, chcemy, żeby było dobrze, a nawet lepiej nam, niekoniecznie innym, co podstawą budowy uniwersalnych zasad być nie może).
Jaką zwierzchnią zasadę, hierarchię wartości, kryteria optymalizacji narzucimy superinteligencji? Nie szkodzić ludziom? Również naszym wrogom? Zresztą czy, na przykład, produkcja smakowitej, acz tuczącej nieco żywności szkodzi ludziom? Jeśli szkodzi, to AGI winna nie dopuścić do jej produkcji? Najbardziej ludzie szkodzą sobie sami. Strach pomyśleć, co wymyśli w związku z tym superinteligencja. Jest nas na Ziemi ponad siedem miliardów i liczba ta rośnie, stanowiąc coraz większe obciążenie dla zasobów planety. To się musi źle skończyć, o ile trend się nie odwróci. Ja, jako superinteligencja, w ciągu paru pokoleń, zminiaturyzowałbym ludzi przynajmniej dziesięciokrotnie. Człowiek o wzroście 17,5 cm, zamiast 175 cm, potrzebowałby o wiele mniej żywności, tlenu i przestrzeni, a i wrogów naturalnych by mu przybyło.
Załóżmy: przybywa do nas superinteligencja, przyjazna i grzeczna. Pyta: czego wam potrzeba? - Nieśmiertelności, braku chorób, braku starości, dostatniego życia, żadnych wojen, katastrof żywiołowych - odpowiedzielibyśmy chórem. Przy czym, na przykład, islamiści mieliby zdanie odrębne, ponieważ im spieszno do raju. Pytanie, czy dowolna superinteligencja potrafi z piasku ukręcić bicz, a z marnego bladawca uczynić Istotę Nieśmiertelną? Może potrafi, wykorzystując nasz brak precyzji, według pomysłów licznych autorów sf. Zamiast Istoty, zrobi Rzecz Wiecznotrwałą i już. Sumując: jesteśmy niegotowi na spotkanie sztucznej superinteligencji. Pozostaje tylko nadzieja, że nie potrafimy jej stworzyć .
