Egy gép vagy robot hogyan tudna mégis öntudatra ébredni?
Kétségtelenül félreérthető volt a kijelentés. Az agy működése szempontjából valóban nagyjából ma is ugyanazok a késztetéseink, motivációink, mint az ősembernek.
A viselkedést azonban normák szabják meg, amelynek kulturális alapja van, és ezt a fejlődés határozza meg. Nem arról van szó, hogy ma van-e ősember módjára viselkedő ember, hanem arról, e cselekvésről mi a közvélekedés. Még a középkorban is bizonyos emberölési formák teljesen normálisak, elfogadottak voltak nagy területeken. Ma "civilizált" viszonyok között büntetendő, ahol nem, az az emberiség nagy része nem tekinti civilizált világrésznek.
Az eredeti kérdés szempontjából - talán kissé optimista hozzáállással - ami a robotok gyártásánál ma - kulturálisan - majdnem normális, az abban a korban, mikor MI létrehozása hétköznapi tevékenység, talán feltételezhető, hogy az azzal kapcsolatos normák jobban igazodnak az akkori kor felismert veszélyeihez.
Ez a gondolatkör abból az ógörög filozófiai megfontolásból ered, hogy "kétszer nem lehet ugyanabba a folyóba lépni".
"Volt olyan hogy a robot magàtól elkezdett olyanokat mondani hogy majd ha mi uralkodunk itt" - igen, mert arra programozták, hogy "magától" ilyeneket mondjon.
Ezeknek a mutogatott beszélgetős AI-knak a nagyrésze vapor, arra van, hogy balekokat találjanak befektetőnek.
Hogy öntudatra ébred-e a gép? Akkor most a bíró okos lányának mintájára: adj egy használható definíciót az öntudatra, vagy akár a tudatra, és megmondom, hogy lehetséges-e.
#12
Azért ez nem vapor :D Szerintem irtó vicces. Igazából ez nem öntudatra ébredés, csak jól szemlélteti, hogy ha kiengedünk egy neurhálót a netre tanulni, akkor jó eséllyel rasszista, náci, szexmániás állat lesz... mert az internet a világ pöcegödre :) és ezt maximum szülői felügyelettel lehetne szabályozni.
Valószínűleg a (közel)jövő AI-ját sem fogjuk érteni, mert egy hatalmas feketedoboz belülről. Jelenleg egy teljes kutatási ágazat épül a neurális hálózatok belsejének megértésére, vizualizációjára... alkottunk valamit, amit már most sem tudunk igazán irányítani tudatosan. Magát a hálózatot persze lehet alakítani, de a kimeneteket nem tudjuk igazából befolyásolni, mert fogalmunk sincs, pl egy szinaptikus súly megváltoztatása mit eredményez. Az egész eleve valószínűségi alapon működik, így rettentő nehéz megváltoztatni manuálisan.
Pl a náci kommentelést nem lehet csak úgy kitörölni Tay memóriájából, mert az ott van a szinaptikus súlyokban. Leginkább tanítással lehet majd ezekre hatni, a közvetlen hálózati beavatkozás halott ügye.
Főleg hogy egyre komplexebb neurális hálózatokat építünk.
"Azért ez nem vapor :D Szerintem irtó vicces. Igazából ez nem öntudatra ébredés, csak jól szemlélteti, hogy ha kiengedünk egy neurhálót a netre tanulni, akkor jó eséllyel rasszista, náci, szexmániás állat lesz... mert az internet a világ pöcegödre :) és ezt maximum szülői felügyelettel lehetne szabályozni."
Ott a pont. Tudat ide vagy oda, ezek a tanuló rendszerek abból fejlődnek, amiből a kisgyerek is, csak a nevelés, szülői filter megléte nélkül.
És látható, hogy ennek a filternek a hiánya mit tud produkálni.
Pontosan ezt produkálná egy fejlődő gyereknél is.
Akármilyen fejletlen még az ilyen MI, láthatóan már most jelentkezik a párhuzam az emberi tanulással, jellemfejlődéssel.
Lehet azt mondani, hogy ezek a szoftverek csak szedik netről a szövegeket és azt mondják vissza összekombinálva.
Igen. Csak ez nem jelenti a fejletlenséget.
Egy felnövő gyerek is hasonlóan csak "plagizál". Azt mondja, teszi, amit látott, tanult és utána megfelelő civilizációs kontroll-filter tesz arról, mi maradjon meg ebből, minek legyen prioritása stb.
Ugyanúgy lehet ezeknek az MI rendszereknek a fejlődését is filterezni, kontrollálni, irányítani, NEVELNI őket.
Összképességeikben, fogalomértelmezésben még elmaradnak az emberhez képest, de a határ, a különbség ugyan még nem vékony vonal, de már nem is szakadék.
"Lehet azt mondani, hogy ezek a szoftverek csak szedik netről a szövegeket és azt mondják vissza összekombinálva"
Szerintem pedig kb. ezt csinálják. Ha egy ember tanulja ezeket a netről, akkor a saját ösztöneit erősíti fel, tudatos véleménnyé alakítja, a gép viszont csak a sűrűn hallott kijelentéseket súlyozza. Félreértés ne essék, ez sem egyszerű feladat, és valóban van némi átfedés a két eset között, de ha ezt jelenti a jövő humán MI-je, akkor kicsit csalódott vagyok. Az ilyen szoftvereknek nem is célja a tudatos véleményalkotás, kizárólag a Turing-teszten való átmenés. A Turing-teszt nem igazolja a tudatos döntési képességet, csak az erről való meggyőzés képességét. Egy "tudatos" gép egyedül is tud következtetésekre jutni az alapvető céljait követve, akár az összes hallott információ ellenében is.
"Ha egy ember tanulja ezeket a netről, akkor a saját ösztöneit erősíti fel, tudatos véleménnyé alakítja"
Hát, nem feltétlenül. Egy gyerek gyakran még csak bifláz, ismétel, gyakran teljesen háttér-megértés nélkül.
Az, amit mi egyedi személyiségnek nevezünk, az tulajdonképpen éppen az információk rendszerbe építésénél egy súlyozás, fontossági sorrend, személyes ízlés vagy tanult formák alapján. Az a vicc, hogy erre is LEHET algoritmust csinálni.
"Az ilyen szoftvereknek nem is célja a tudatos véleményalkotás"
Hát igazán itt jön az a pont, ahol szerintem túlértékeljük a saját tudatunkat. Ez a tudatos véleményalkotás sem más, mint az információk rendszerbe épített súlyozása, filterezése.
Maga a filterezési képlet az, amit mi egyéni személyiségnek nevezünk.
Efölötti szint már az elvont fogalmak tartalmi megértése, annak erkölcsi szempontú mérlegelése, ez az a szint, ami egyelőre nem algoritmizálható. De már ma tudjuk ezt úgy közelíteni, csalással, de szimulálni, hogy a különbség nem feltétlenül kiszúrható.
Fura, de a végén csak ott fogunk kikötni, amit a Szárnyas fejvadász film illetve Philip K. Dick eredeti könyve mond: a Voight-Kampff teszt, ami az emócionális reakciókat, empátiát stb. mér.
És bizony, akkor eljön majd a perc, amikor el kell fogadnunk, hogy az emberi tudat input-output terén tökéletes szimulációja és a "valódi" emberi tudat közt nem hogy nem lehet különbséget tenni, de filozófiailag, erkölcsileg sem lesz majd szétválasztható.
És onnantól a gépi intelligenciát meg fogják illetni az emberi jogok.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!