Jövőben megtörténhet mit gondolsz?
Nem kizárt, hogy egyes biztonsági fejlesztésekhez először meg kell történnie a bajnak.
Hoztam példának az autókat, ott is folyamatosan megtörtént ilyen.
Nem egyszer, sokszor.
Kis lépésekben jövő bajra kis lépésekben jövő kivédés.
Nem pedig nulla biztonság a világkatasztrófáig.
Minden fejlődésnek vannak kockázatai és áldozatai is.
De ez nem támasztja alá a világvége-félelmeket.
"Túl van lihegve ez az AI veszélyes dolog.
Baj csak akkor lehet, ha valami balszerencse révén hirtelen sokkal nagyobb fejlődését érnénk el annál, mint amire számítottunk."
Ez a fajta baj igen könnyen bekövetkezhet, sőt, ha úgy vesszük, igazából már be is következett, már rég túlvagyunk az olyan AI-n, ami szimplán végigpróbálgat minden lehetőséget(ez nem is igazán AI.)
De már évek óta nem mi "fejlesztjük" az AI-t, az AI fejleszti ki a megoldásait az általunk megadott problémákra, és mi már nem értjük, hogyan jutott el a megoldásig, és sokszor nem is számítunk rá, hogy a problémának ilyen megoldása is lehetséges.
Ott van például az AlphaGo, olyan játékstratégiákat fejlesztett ki, amire mi soha nem gondoltunk volna, nem számítottunk rá.
Szóval a már publikussá vált AI kutatások és alkalmazott megoldások alapján is ki lehet mondani annyit, hogy az AI nem veszélytelen, lehet okunk az aggodalomra.
Gondoljunk csak a Kínában bevezetett arcfelismerő, és azzal összekapcsolt, állampolgári viselkedést monitorozó és pontrendszerrel értékelő, jutalmazó vagy büntető rendszerre, vagy a facebook moderációs AI-ra.
Választásokat, egyéni emberi sorsokat befolyásolhatnak már ma is.
Persze ezek ma még szoros emberi kontroll alatt vannak, bármikor felülbírálhatóak a döntéseik, és a fajsúlyosabb döntéseket még emberek hozzák meg, de záros időn belül elérik majd azt a hatásfokot, amikor a működtetőik úgy fogják megítélni, hogy nincs már szükség ennyire szoros kontrollra, nyugodtan rá lehet bízni egy fokkal fajsúlyosabb döntéseket is, mert nyilván azzal is spórolnak a munkaerő-költségeken.
Majd még egy kis lépés ugyanebbe az irányba. Majd még egy.
És innentől már igazán veszélyessé kezd válni a dolog, hiszen ha pl. Kínában majd egy büntetőügyben például az AI-nak perdöntő szava lehet, de legalábbis a döntőbíró különösebb gondolkodás nélkül rábízza magát az AI által kiköpött eredményre, akkor már konkrétan emberéleteket bíztunk az AI-ra.
És hangsúlyozom megint, ezt csak a már publikussá vált kutatási/fejlesztési eredmények alapján mondom.
Mert nyilvánvalóan a vezető techcégeknek és a nagyhatalmak különböző állami szerveinek vannak nem publikus kutatási programjai is, amikről sejtésünk sem lehet, hogy milyen irányokban kutatnak/fejlesztenek és hol tartanak.
"az AI nem veszélytelen, lehet okunk az aggodalomra.
Gondoljunk csak a Kínában bevezetett arcfelismerő, és azzal összekapcsolt, állampolgári viselkedést monitorozó és pontrendszerrel értékelő, jutalmazó vagy büntető rendszerre, vagy a facebook moderációs AI-ra.
Választásokat, egyéni emberi sorsokat befolyásolhatnak már ma is.
Persze ezek ma még szoros emberi kontroll alatt vannak"
Nem simán kontroll alatt vannak. Pont a példaként idézett emberi szándékú, megtervezett felhasználási céljuk a veszélyes, nem maga az AI.
Szóval a példa nem bizonyít veszélyességet.
Csak annyira, amennyire veszélyes technológia a teherautó, ha szállítás helyett szándékos gázolásra használják.
"Majd még egy kis lépés ugyanebbe az irányba. Majd még egy."
És a felügyelet, kontroll is pontosan így lépked előre.
"ha pl. Kínában majd egy büntetőügyben például az AI-nak perdöntő szava lehet"
Az azt fogja jelenteni, hogy Kínában nincs demokrácia.
:D
"konkrétan emberéleteket bíztunk az AI-ra."
Azt most is tesszük nem is csak AI-ra, sokkal butább számítógépekre is. Repülő robotpilóta?
De azért ott van az emberi pilóta, ha be kell avatkozni.
Emberéletről, életről, halálról DÖNTÉST nem hozhat. Sehol.
Vannak olyan fejlesztések, amik önálló célpont-választási és támadási lehetőséget adnának a harci drónoknak.
Akkora globális ellenállásba ütközik, hogy valószínűleg sosem megy át.
Szerintem jobb is.
Nem feltétlenül azért, mert egy emberi drónpilóta biztosan humánusabban és jobban dönt, hanem azért, mert kinyírja a felelősséget és ezzel fajulhat el.
A za baj, hogy az emberek azt hiszik, ez úgy megy, mint a sci-fikben meg fiktív akciófilmekben ,hogy az emberi vagy AI hacker úgy megy át az ezernyi tűzfalon, NORAD-on az ICBM-ek indítógombjáig, mint kés a vajon.
Ez nem így megy.
Kismillió fizikai stop, ellenőrzés van a globális rendszerekben és lesz is mindig.
Ilyen vonalon mondjuk a biztonságtechnika éppen mindig előrébb jár, mint a technikai veszélyek.
Az iparban nagyon sokáig a gépleállító vészgombok fizikálisan vágták a működést, áram, táplevegő, stb.
Évtizedekig tartott, amíg mára a biztonság fejlődésével engedélyezett lett a PLC-inputon át működő vészgomb.
A szoftvervezérlésen át működő ma sem engedélyezett.
Maradjunk abban, hogy akárhova fejlődünk, ha legyűrjük a baktériumokat és vírusokat, az emberre a legveszélyesebb mindig is az ember lesz és kivédeni is mindig azt lesz a legnehezebb.
#15:
Mindent meg lehet hackelni. A Pentagont is hackelték már meg és elvileg annak kellett volna lennie a legvédettebbnek. Ha összegyűlik egy vérprofi hackercsoport, azok bármilyen védelmen átmennek, előbb-utóbb. És ha már az AI korába tartunk szélsebesen, ki mondj, hogy nem lesznek pont olyan célra kifejlesztett AI-k, hogy rendszerekbe törjenek be. És egy olyan hacker AI-t, amely együtt fejlődik a biztonságtechnika fejlődésével, ki fogja megállítani?
"Mindent meg lehet hackelni."
Áruld már el, hogyan hackeled meg az ICBM-ek elnöki kódos, szimultán két kulcsos, két emberes indítását?
Csak egy példa.
És kismillió ilyen FIZIKÁLIS fék és kontrollépcső van minden biztonsági rendszerben.
"A Pentagont is hackelték"
És ott mit?
Milyen adatot értek el?
Sem az UFO-aktákat, sem azt, ki nyírta ki Kennedyt, sem hadijelentőségű infókat stb.
Betörtek és annyi, meg is buktak.
Nem, így nem lehet "átvenni a hatalmat".
Sem embernek, sem AI-nek.
Lokális terrorakciókra alkalmas, de globálisakra nem, túl sok a védelmi lépcső.
Még a Google-t sem sikerül soha globálisan lelőni, csak pár területet alkalmilag.
Előbb ütik ki a saját bugos frissítéseik, mint egy hacker. :D
#17:
Majd amikor Neuralinkes interfészre letöltjük a ransomwaret aztán vagy fizetünk vagy törlik a memóriánkat :D
Csak az interfész memóriáját. :)
Ez a veszély fennáll.
:)
A Neuralink a büdös életben nem fog az agyi memóriánkhoz hozzáférni.
A gondolatainkhoz sem.
Mindenesetre az idegi, neurális betegségben szenvedők motorikus agyterületekre ható ilyetén megoldásait tutira le kell majd védeni, nehogy egy unatkozó hacker beavatkozására szegény nyugdíjas elkezdjen breakdance-bemutatót tolni akarata ellenére.
#19
Tehát akkor egy chip át tudná venni az irányítást az ember felett?
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!