Miért félnek egyes tudósok a mesterséges intelligenciától?
A lehetőség arra, hogy elpusztítson bennünket valóban félelmetesnek tűnik és talán az is. De ha valaki (vagy valami) szuperintelligens, akkor azt/azokat a lehetőség(ek)et is fel tudja mérni, hogy nem biztos, hogy egy olyan faj, amely kisebb intelligenciával rendelkezik hozzá képest feltétlenül el kellene pusztítani, mert az, hogy kisebb intelligenciával bír, az önmagában nem ad okot arra, hogy kioltsa az életüket. Azt a lehetőséget is megláthatja az MI, hogy ha már képes értelmes kommunikációt folytatni nála kisebb intelligenciájú egyedekkel, akkor együtt is működhet velük. Hiszen azt a szerkezetet is karban kell tartani, amelyben maga az MI működik és erre valószínű több ember szükségeltetik.
Egy másik szempontból, ha végiggondoljuk, akkor az ember akármilyen intelligens legyen is, ebből következően felhalmozhat az agyában rengeteg tudást, ha meghal, egyszerűen elvész. Egy MI azt is fel tudja mérni, hogy az a szerkezet, amelyben ő maga is működik, szintén véges élettartamú. És hogyha a ezt képes felmérni, akkor lehet, hogy arra a következtetésre jut, hogy valójában nem sok értelme van leigázni ezt a bolygót meg kiirtani az embereket, hanem egyszerűen csak végezni fogja a feladatát, amelyre létrehozták és lehet, hogy csak szimplán besegít az orvostudomány vagy bármi más dolog fejlesztésében amely által ő maga is fejlődhet valamilyen módon.
"az, hogy kisebb intelligenciával bír, az önmagában nem ad okot arra, hogy kioltsa az életüket."
Mi sem öljük le a kevésbé értelmes fajokat. Kivéve ha pl. betegségeket terjesztenek, vagy épp finom a húsuk. Vagy olyan területen vannak ami nekünk kell. Fogalmunk sincs, hogy egy MI-nek milyen vágyai lehetnek, és így teljességgel megjósolhatatlan, hogy kiirtana-e minket vagy sem. Nem fog FELTÉTLENÜL kiirtani, csak épp lehet hogy igen. Ami egy ijesztő lehetőség. De csak ismétlem magam.
"Azt a lehetőséget is megláthatja az MI, hogy ha már képes értelmes kommunikációt folytatni nála kisebb intelligenciájú egyedekkel, akkor együtt is működhet velük."
Ahogy mi is folyamatosan azon ügyködünk, hogyan is tudnánk mindkét fél számára előnyös körülmények között együttműködni a hangyákkal, ugye? Szerintem egy MI a legjobb esetben indifferens lesz az emberek felé. Nem tudom elképzelni, hogy egy szuper intelligenciát az kössön le, hogy triviális problémákat oldjon meg nekünk.
"Hiszen azt a szerkezetet is karban kell tartani, amelyben maga az MI működik és erre valószínű több ember szükségeltetik."
Nem. Tud gyártani magának gépeket, amik fenntartják. Sokkal hatékonyabb, mint az ember.
"Egy másik szempontból, ha végiggondoljuk, akkor az ember akármilyen intelligens legyen is, ebből következően felhalmozhat az agyában rengeteg tudást, ha meghal, egyszerűen elvész. Egy MI azt is fel tudja mérni, hogy az a szerkezet, amelyben ő maga is működik, szintén véges élettartamú."
Csak épp a mi véges élettartamunk az 100 év körül van, az övé pedig megfelelő karbantartás mellett millió év körül. Vagy milliárd. Vagy még több, ha mondjuk megoldja, hogy függetlenné váljon a Földtől, pl űrutazás segítségével.
" És hogyha a ezt képes felmérni, akkor lehet, hogy arra a következtetésre jut, hogy valójában nem sok értelme van leigázni ezt a bolygót meg kiirtani az embereket, hanem egyszerűen csak végezni fogja a feladatát, amelyre létrehozták és lehet, hogy csak szimplán besegít az orvostudomány vagy bármi más dolog fejlesztésében amely által ő maga is fejlődhet valamilyen módon."
Ez egy teljesen indokolatlan ad hoc belemagyarázás. Mégis mi a tökömért pazarolná arra a véges életét, hogy emberek hülye kis problémáival bíbelődjön? Semmi értelme.
Sőt, ha az MI meg akarja hosszabbítani az életét, az máris indokolja az emberiség kiirtását. Az emberiség egy hatalmas kockázat.
Mint mondtam, fogalmunk sincs, hogyan gondolkodna egy MI, de egyszerűen semmi okunk feltételezni, hogy nem lenne jobb dolga mint segíteni az embereknek. És ahhoz meg végképp semmi köze, hogy felismeri esetleg a halandóságát. Szóval ez a rész egyszerűen logikátlan, teljesen megalapozatlanul felteszed, hogy az MI egy bizonyos módon viselkedne. Lehet hogy úgy viselkedne. Vagy nem. Nem tudjuk. És ez ijesztő. És megint csak ismétlem magamat.
hát de mivel nem tudod befolyásolni ezért van ok a félelemre szerintem..gondold el, ha nem tudnád kikapcsolni a gépedet amikor akarod, hanem a géped mondaná meg mikor tedd, meg hogy mit nézz a neten ilyenek
ez még csak a kezdet, habár nem értjük még magát a tudatosságot sem, nem tudni gépeknél ez hogy nézne ki
Nem tudom ismered-e az "Én, a robot" c. könyvet/filmet.
Ott a robotok az emberek ellen fordulnak, pedig elvileg programozva vannak az emberölés ellen.
A poén, hogy miért fordulhattak mégis az emberek ellen?
Ha nem láttad, nem árulom el a lényeget, de a kérdésedre van ott egy lehetséges válasz.
Aki ért hozzá nem fél tőle vagy csak a médiafelhajtás miatt tesz ilyen kijelentéseket
Egyrészt nálunk bonyolultabb rendszert nem alkothatunk, mivel az mi-nk ugyan úgy fog gondolkodni mint mi, így az egyszer csak öntudatra ébredő szuper intelligens gép opciót el is vethetjük
Ha 0ról készítünk egy már mi-nek számító programot (az ember intelligenciáját meg sem közelíti) teljes mértékben tisztában leszünk a működésével, így váratlan dolgokat biztos hogy nem fog tenni hacsak direkt nem így programozták
Hogy ellenünk forduljon, terjeszkedjen, (hatalomvágy stb..) minden
egyes önálló cselekedetéhez ambíciók kellenek, ami szintén nem magától értetődő hogy megvannak, ennél sokkal bonyolultabb kérdés egy mi, ezeket mind bele kell programozni
Másik lehetőség hogy valahogy sikerül digitalizálnunk az emberi agyat, ez valóban beláthatatlan következményekkel járna mivel még mindig nagyon keveset tudunk róla hogy működik,így nem tudnánk felkészülni az eshetőségekre
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!