Ha tudják, hogy a mesterséges intelligencia veszélyes, mert öntudatra ébredhet, akkor minek fejlesztik?
Ezt nem egészen értem, manapság már mindenki attól retteg, hogy a mesterséges intelligencia ha túl sokáig fejlődik, akkor majd öntudatra ébred és fellázad meg ilyesmi, mint a Terminátorbn a Skynet.
Ez eddig oké, csak az a bökkenő, hogy jelenleg az AI-t még az emberek fejlesztik, kutatók, tudósok, mérnökök. Na most ha ez a veszély a jövőben reális, és a dolgok ebbe az irányba tartanak, akkor miért fejlesztik mégis tovább az AI-t? Miért kell elmenni odáig hogy ez realitássá váljon? Nem egyszerűbb lenne szimplán nem fejleszteni tovább, és akkor nem ébredhetne öntudatra?
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz0.png)
Ez kb. hasonló dolog, hogy tudunk már a Föld túlnépesedéséről is, mégis mindenki csinálja a gyerekeket, ahogy csak bírja.
A mesterséges intelligencia fejlesztése fölött nem lehetséges tartósan visszatartó hatású társadalmi kontroll, mert az egy kozmológiai törvényszerűség, hogy az általánosságban értelmezett intelligenciának mindenáron fejlődnie kell. Az egyéni és emberközpontú szemlélet egyszerűen szánalmasan korlátolt, hisz az emberiség éppen most teljesíti be a végső nagy feladatát a történelemben!
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz1.png)
Nem mindenki retteg attól.
A fejlesztést meg nem lehet leállítani, mert ha mi itt nyugaton meg is oldjuk, akkor keleten menni fog tovább és ez miatt előrébb lesznek fejlettségileg. De ez vica-versa igaz, a föld lakossága pedig nem fog összefogni egymással, tehát nem lehet megakadályozni a fejlődést.
Ez olyan, mint az atombomba. Mikor az amcsik elkezdték fejleszteni, akkor már ez egy elképzelhetőnek tartott ötlet volt, és előbb-utóbb úgy is megépítette volna valaki.
A fejlődést nem lehet megállítani és nem is szabad. Ahogy az internet, úgy az AI is több jót fog hozni, mint rosszat és ugyan úgy átfogja alakítani a társadalmunkat.
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz1.png)
A mesterséges intelligencia öntudatra ébredése sci-fi és 99,9999999999999%, hogy az is marad.
Nagyon tévúton jár az, aki ezeket a programokat bármilyen emberi tulajdonsággal próbálra jellemezni. Ezek szimplán egy tudat - egyelőre elég gyenge - szimulációi maximum.
Eleve még azt sem tudjuk egészen pontosan, mi az az öntudat, hogy alakul ki.
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz1.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz0.png)
Egyrészt nem ébredhet öntudatra, maximum úgy fogalmazhat, mintha öntudatos lenne, hanem egyszercsak valamelyik vállalat olyat fejleszthet, ami már öntudatos (de az még nagyon messze van, mert sokkal durvább hardver kell hozzá).
Másrészt azért, mert ha mondjuk az OpenAI leállna vele, akkor kifejlesztenék pl. a kínaiak. Tehát ez olyan, mint az atombombánál: "ha mi nem fejlesztjük ki, akkor kifejleszti más, és annál már az is jobb, hogyha mi fejlesztjük ki."
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz1.png)
#5 Mielőtt kötekszel, gondolkozz, hogy mit mondott a másik.
A mesterséges intelligencia valóban veszélyes, de nem az öntudatra ébredés miatt.
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz1.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz1.png)
![*](http://static.gyakorikerdesek.hu/p/vsz0.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz2.png)
![*](http://static.gyakorikerdesek.hu/p/vsz1.png)
Kapcsolódó kérdések:
Minden jog fenntartva © 2025, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!