Szerintetek mennyi idő múlva jön el a technológiai szingularitás és mi lesz a hozadéka?
15:17: értem amit mondasz, de nem biztos, hogy az ember képes lesz kontrollálni ezt a folyamatot. Magasabb szintű intelligenciát biztosan létre fog hozni, mert az ember már csak ilyen kíváncsi természetű, és lehet, hogy elképzelései szerint megtesz minden szükséges intézkedést, hogy ne legyen vele probléma. De Curie-ék is a saját felfedezésük következményeibe haltak bele. Egy folyamatosan fejlődő intelligencia túljárhat az ember eszén.
Nem olyasmire gondolok, hogy egy szuperrobot kiirt, hanem sokkal elvontabb dolgokra. Példásul a feladata megoldásához erőforrásokra van szüksége, ezért mondjuk csomót köt a téridőre és mindannyiak kvarkokká válunk, mielőtt észrevennénk - csak hasra ütöttem.
Nem azt mondom, hogy ilyesmi biztosan bekövetkezik, de elképzelhető, hogy az intelligencia fejlődése olyan szintre jut, hogy érdektelennek találja az emberiséget a céljai eléréséhez, és nem lehet beláttatni vele, hogy az emberiség fennmaradása fontos lenne.
12:52 vagyok
15:27 ez nem ilyen egyszerű, mert attól, hogy nem ütközik törvénybe, abból nem következik az, hogy be is történik. a másik ilyen feltételes törvény az, hogy jobb esetben az ember előre gondolkodik.
15:48 nem is állítom, hogy ez biztos, csak nagyon valószínűnek tűnik és logikusnak.
szerintem vagyunk annyira intelligensek, hogy ne tervezzünk valami olyat, amit nem értünk, vagy erősebb nálunk. egy szuperintelligens gép semmi olyan erőt nem fog kapni, ami cselekvőképessé teszi, mert akkor megalkottunk egy potenciális bűnözőt. ráadásul abban is többnyire biztos vagyok, hogy az emberi élet védelmét bele fogják programozni. sőt, azt is valószínűnek tartom, hogy sosem fogunk egy hatalmas gépet emberi tényező nélkül működtetni. főleg ha nagyon intelligens.
tehát nagyon valószínűtlen.
"15:27 ez nem ilyen egyszerű, mert attól, hogy nem ütközik törvénybe, abból nem következik az, hogy be is történik."
Pontosan emiatt írtam azt, hogy bekövetkezHET.
"szerintem vagyunk annyira intelligensek, hogy ne tervezzünk valami olyat, amit nem értünk, vagy erősebb nálunk."
Ó, az az ártatlan gyermeteg naivitás. :) Nézd, az emberben sokkal nagyobb a kíváncsiság, az önzőség, a hatalomvágy, mint az önuralom. És ha lesz is olyan tudós, aki annak ellenére leállítja a munkálatokat, hogy ő fel tudná találni a nála intelligensebb gépet, valamelyik soron következő tudósnak nem lesz ekkora önuralma. És éppen elég 1 db ilyen tudós, így bekövetkezhet a crah. Nézd, ha az emberek ennyire előre gondolkodók lennének, miért alkottak annyi mennyiségű atom és hidrogénbombát, hogy a Föld többszörösét el tudnák vele pusztítani? Elég csak 1 őrült tudós, és az bevégeztetheti az emberiség jövőjét.
12:52 vagyok
18:34 másképp értelmeztem a mondatban a feltételes módot, így már tiszta
naivitás? én végképp nem vagyok naivnak mondható. ezt nagyon úgy állítod, mintha biztos lennél benne. szerintem ez a naivitás, mikor biztosnak állítunk be valamit ami csak lehetséges.
nem mondhatod 100%ig biztosra. tudom, hogy hülyék az emberek, a vezetők kapzsik, a kutatók kíváncsiak, és ezeket jól lehet ötvözni, de ekkora tudáshoz nagy intelligencia kell, ami mellett valószínű, hogy a megépítője gondol a saját biztonságára (ha másokkal nem is foglalkozik).
avagy ha ilyen sok bombát készítettek, miért nem irtotta még ki az emberiség magát? mert a bombához hatalom és tudás kell, a hatalomhoz intelligencia és önzés, aki pedig elég okos és önző, nem irtja ki magát.
csak szeretnénk, hogy az emberiség kiirtsa magát, de az igazság az, hogy a kis ember szív mindig, a nagyok mindig nyernek. a háborút is az éli túl a legnagyobb valószínűséggel, aki a parancsot osztja.
14:59
ilyen "nincs" hogy posztindustzriális kőkorszak. a gazdasági leépülésben sosem az elit jár pórul. teljes kulturális összeomlást csak akkora apokalipszis okozhat, ami társadalmi zavargásokkal és hierarchikus megbomlással jár. attól hogy maga az emberiség összessége nem fenntartható, egy része igen. milliók halnak éhen, de nem hal ki az emberiség.
"Amit persze nem úgy értek, hogy valami Terminátor-szerű dolog következne be, hanem úgy, hogy észrevétlenül, a háttérből manipulálja a dolgokat, fokozatosan terelve mindent a maga által meghatározott célig - amely folyamat érdekében pedig nagy valószínűséggel összeállít majd újabb AI-ket is... onnantól pedig lásd egyes pont."
Pedig a Terminátorban pont ez történt, amit írsz. :D
A Skynet titokban létrehozott egy vírust, mert tudta, hogy a kiirtására őt akarják majd felhasználni, így szabad utat adtak neki az egész netre. :)
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!