Lehetséges lesz a jövőben, úgy körülbelül 2030-ra, hogy ebben a gyorsuló világban, hogy megépítjük a saját ellenségeinket, amolyan terminátor jellegű gép uralom?
A versengés problémákat okozhat!
Ha az AI-fejlesztőket siettetik (a kormányuk, a vállalatuk, az akármilyen szervezet aminek dolgoznak), hogy ők hozzák létre az első strong AI-t, akkor lehetséges hogy nem lesznek kellően "óvatosak" a fejlesztés során. Egy ilyen sietősen kifejlesztett AI fölött könnyebben elveszíthetik a kontrollt, mert a fejlesztése során esetleg nem tesznek meg minden lehetséges óvintézkedést, vagy nem is jutnak eszükbe a megfelelő óvintézkedések, mert kapkodnak.
Szóval az ideális az lenne, ha senki nem sietne sehova, hanem szépen-lassan meggondoltan fejlesztenénk AI-rendszereket, maximális óvatossággal. Ha van valami amit tényleg nem kellene elrontani, az a strong AI - teljesen mindegy mennyi időbe kerül, jól kell megcsinálnunk. Biztosra kell mennünk, hogy az AI hű marad a mi (emberi) céljainkhoz és értékeinkhez ("value alignment").
A megfelelő "szabályokat" már előre ki kell kidolgozni, még most, az AI fejlesztés korai szakaszában. Erre szerencsére látok is próbálkozásokat.
Egyébként a megfelelő gondossággal kifejlesztett, "barátságos" AI, jóakaratúan felhasználva hatalmasat lendíthetne a világon!
Képzelj el egy embernél jelentősen intelligensebb "társat", ami segít
- gyógymódot találni a különféle betegségekre
- megoldani a kimerülő termőföldek problémáját
- megoldani az éhezés, meg úgy általában az erőforrások túlzottan egyenlőtlen elosztásának problémáját
- új eljárások kifejlesztésével megoldani az emberiség által termelt hulladék 100%-os újrahasznosítását
- új anyagokat kifejleszteni, erősebb számítógépeket tervezni, űrhajót és Mars-kolóniát tervezni, stb.
Nagyon le vagy ragadva ennél a Skynet-nél :D
Annál hogy egy AI szándékosan ki akarna írtani minket, szerintem sokkal valószínűbb, hogy egyszerűen elcsesz valamit, amibe beledöglünk.
Valamelyik scifi-ben volt olyan AI, ami az emberiség nagy barátjának tekintette magát, miközben úgy viselkedett mint egy pszichopata. Ha rosszul végezzük el egy strong AI value alignment-jét, ezutóbbi valóra válhat.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!