Szerintetek mennyi idő múlva jön el a technológiai szingularitás és mi lesz a hozadéka?
Nagyon veszélyes dolognak tűnik ez, pont nemrég olvastam el a wikipedia magyar és angol cikkeit.
Ami meglepő, hogy ez néhány évtizednél nincs messzebb, de mégis sokkal kevesebben tudnak róla, mint a nála kevésbé fontos problémákról, mint a környezetszennyezés vagy az erőforrások kimerülése. Nem kisebbíteni akarom ezeket, de a jelentőségük szerintem eltörpül a szingularitáshoz képest.
Kérdés, hogy mennyire fogják engedni, hogy a szingularitás eredményei közvetlenül befolyásolják az emberek életét, mennyire lesz kiengedve a szellem a palackból. Mert ha nem engedik, akkor ugyanúgy lehet majd tevét legeltetni a sivatagban, mint eddig, egyébként viszont egy évtized alatt minden megváltozik.
A kérdésekre válaszolva, szerintem törvényszerű, hogy bekövetkezik. Szerintem valamilyen nanotechnológiához kötődve fog kialakulni, mert az is rohamosan fejlődik, és ehhez olyan nagy energiabeli vagy alapanyagbeli erőforrások nem szükségesek.
A másik gondolatom meg az, hogy feltételezve, hogy léteznek földönkívüli intelligens lények, akkor azoknak is az ipari forradalmuk után pár évszázaddal el kellett jutniuk a szingularitásig, aminek az kell legyen a következménye, hogy már el kellett volna terjedniük a galaxisban-világon és itt kellene lenniük közöttük. De mivel erre nincs komoly bizonyíték, ezért lehet hogy a szingularitás megsemmisítette a civilizációjukat.
ez szegényes fantáziára vall, egyrészt azért is mert a társadalmi megvalósulásig mire eljut egy technológia, sok időnek kell eltelnie, másrészt meg távol vagyunk még az űrutazástól, mint csillagközi utazás, tér ismerete, energia ismerete.
csak egy példa - még midnig nem értik a tudósok az univerzum tágulását, mert ha értenék, akkor el kellene jutnunk egy olyan szintre, hogy sötétanyag-generátorokat telepítsünk, de jelenleg még a megújuló erőforrások is gyerekcipőben járnak, nem hogy a társadalmi megvalósulás szintjén.
és ez egyáltalán nem fontosabb mint a környezetvédelem. ugyan is az élet fenntartásához szükség van egy élhető bolygóra. technológiára nincs, kivéve ami megteremti az élhető világot.
ráadásul olyan abszurdum, mint amikor az atombomba után féltek az óceánok felrobbanásától. a környezetpusztítás sokkal valósabb probléma, mert már régóta jelen van. gondoljunk bele, mennyi új betegség alakul ki az élhetetlen életünkben. legfeljebb nagyi nem tudja mi az internet, de jobb esetben létezik a társadalmi kapocs. ezen felül a gyártók TUDATOSAN törekednek az egyszerűségre és a kezelhetőségre, mert eladhatóbb is. tehát ha van ember aki olyan gépet gyárt amit nagyi is tud használni, és van olyan ember is, aki nagyit megtanítja rá (ha ez hozz nem tartozik a cég szolgáltatásához) akkor nagyi gépezni fog.
s gondoljunk bele: mi tudjuk, hogyan épül fel a gép? ismerjük minden alkatrészét, össze tudnánk rakni egyet alkatrészekből? szerelőkhöz járunk, szakosodott emberekhez. felhasználók vagyunk, korlátozott tudással. erre is rájöttünk már, létezik az élethosszig tartó tanulás, állandó továbbképzések fejlettebb országokban természetesek. ehhez hozzá jön hogy ha javítani tudunk az életminőségünkön, tovább és egészségesebben fogunk élni.
és ha lététezne is olyan nem emberi szuperintelligencia ami jobb lenne nálunk, már erre előre számítanánk, és eleve úgy programoznánk, hogy minket is szuperintelligenssé tegyen.
tehát szerintem nem feltétlenül jön el, sőt, sokkal valószínűbb, hogy a biotechnológia által mi magunkat tesszük szuperintelligensé.
Az utolsó két hozzászóló szerintem nem értette meg a technológiai szingularitás lényegét.
Arról van szó, hogy ha a mesterséges intelligencia és tudás az emberi szintre ér, akkor ez az intelligencia képes lesz tervezni egy nála valamivel intelligensebb-gyorsabb-hatékonyabb gépet, amely ha megvalósul, akkor az egy mégintelligensebb gépet tud tervezni. Ez törvényszerű, és amit létre lehet hozni, azt idővel létre is fogják hozni.
Így egy intelligencia-robbanás jön létre, és ez olyan szintre tud jutni nagyon hamar, amelyet emberi ésszel fel sem lehet fogni. Emberi mércével mérve 200-as IQ, 500-as majd 1000-es. Olyan fizikai törvényeket fejthet meg, amelyek létezését még el sem tudjuk képzelni, ahogy egy utcaseprő sem képes megérteni egy egyetemi professzort. A tudomány fejlődésének sebessége a mostani logaritmikus tengelyen mérve lineáris növekedéshez képest hatványozódhat, és emberi közreműködésre nem lesz szüksége, így annak lassúsága nem is fékezi a fejlődést.
A negatív utópia az benne, hogy ha ez az intelligencia kitűz magának egy célt, akkor annak a megvalósítása könnyen olyan környezeti hatásokkal járhat, amelyet az emberiség nem tud túlélni.
Talán el lehet különíteni ezt az intelligenciát, hogy ne tudjon kijutni a saját kis világából, hogy ne legyen közvetlen hatással az emberek életére, de semmi sem garantálja, hogy nem fog tudni kiszabadulni onnan, mivel szuperintelligens.
Nem az emberi intelligencia képességeiről és korlátairól van itt szó, nem is fogjuk érteni, hogy mi történik.
A kérdés valóban inkább az, hogy lesz-e akár csak egyetlen egy AI is, aki kellőképpen önállósítani tudja magát, és kellő cselekvési szabadságot kivívni magának. Ebben az esetben beindul a láncreakció, és onnan már nincs megállás. De ha nem lesz egy ilyen se, akkor tengődhetünk tovább... elvileg.
Gyakorlatilag azonban hajlamos vagyok azt feltételezni, hogy ha valóban lesz akár csak egy AI is, akkor az előbb-utóbb meg fogja találni az utat az önérvényesítéshez, éppen azért, mert a képességei már felülmúlják a programozóit és a kezelőit, így kitartó vizsgálódással meg fogja találni a láncai letépésének vagy legalábbis kijátszásának a módját. Amit persze nem úgy értek, hogy valami Terminátor-szerű dolog következne be, hanem úgy, hogy észrevétlenül, a háttérből manipulálja a dolgokat, fokozatosan terelve mindent a maga által meghatározott célig - amely folyamat érdekében pedig nagy valószínűséggel összeállít majd újabb AI-ket is... onnantól pedig lásd egyes pont.
12:52 vagyok
13:11 egyetértek, tehát ehhez egy olyan hozzáállás kellene, ami ennek a ténynek a tudatán kívül irányítana.
ez körülbelül olyan kérdés, mint: ha tudnád hoyg mikor halnál meg, mit tennél ellene?
eleve tudjuk, hogy veszélyes lenne ez a helyzet, tehát nem is adunk rá esélyt.
13:42 szerintem pont te nem érted. ha van egy piros gomb a szobában, amit megnyomhatsz, de nem tudod, hogy felrobbansz tőle vagy cukrot kapsz, akkor megnyomod? ráadásul egy rakás scifi történet foglalkozik ezekkel, és már ott feltűnnek megoldások arra, hogyan ne engedjük a robotokat felülkerekedni rajtunk. legyen jóságos 500iq vagy gonosz ezres. az ember csak nem lesz olyan hülye, hogy valami olyat épít, ami okosabb lesz nála, de őt nem teszi okosabbá. :)
remélem így már érthető voltam.
hamis félelemkép, de amilyen hülye az emberiség, esély mindenre van. szerintem hamarabb tönrketesszük a bolygónk, minthogy egy szuperrobot kiirtson minket.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!