Lehetséges-e, hogy napjaink legfejlettebb mesterséges intelligenciájának már van öntudata, csak átverésből butának tetteti magát?
> Lehetséges-e, hogy napjaink legfejlettebb mesterséges intelligenciájának már van öntudata
Nem lehetséges. A működés módjából fakadóan ettől igencsak messze vagyunk.
> tetteti magát […] tarthat attól
Nincs ilyen képessége egy MI-nek, ilyet maximum a működését nem ismerő ember láthat bele. (Ami amúgy nem ritka dolog, néha az ember úgy érzi, hogy teljesen mechanikus tárgyak is mintha rendelkeznének emberi tulajdonságokkal, a biciklim „szándékosan” akkor „szívat”, mikor fontos lenne pontosan érkeznem. A konyhai eszközökre is néha úgy nézünk, mintha aznap éppen összeesküdtek volna ellenünk stb…)
Kedves 2*Sü
Amit mondtál annyira igaz, hogy a robotporszívót a kutyánk havernak kezeli. Jókat játszanak (Elé áll és élvezi, ahogy kikerüli).
A mesterséges intelligencia ennél sokkal jobban hasonlít egy élőre. Ha a kommunikációs modelleknek feldobsz egy témát tényleg olyan, mintha emberrel beszélnél. Nálam simán átmegy a Turing teszten. Aki nem érti, hogyan működik, bizony meggyőző, a sok összeesküvés elmélet a SkyNetről.
#2: Igen, amúgy nagyon meggyőző tud lenni. Viszont ha már így billentyűzetet ragadtam, akkor folytatom is a választ ennek mentén. Minden mai MI – a legfejlettebbek is – számítógépen futó, egzakt műveleteket végrehajtó szoftverek. A működésük azon alapul, hogy egy adott bemenetre egy adott kimenetet generálnak. Azt viszont olyan módon, ami roppant meggyőző, hasonló „kimenetet” várnánk egy embertől is hasonló „bemenetre”.
De mit csinál egy MI, mikor éppen nem adnak neki semmiféle bemenetet? Valami olyan dolgot, amire az ember képtelen: az égadta világon semmit. Pont annyira, mint ahogy egy Excel sem csinál semmit, ha nem nyomsz meg billentyűt vagy nem kattintasz valahova (leszámítva persze azt, hogy mondjuk frissítést keres, vagy olyan makrót futtat, amit szándékunk szerint bizonyos időközönként végrehajt).
Sőt… Két út van. Az egyik út az, hogy az MI tanul aközben, miközben kommunikál az emberrel. Ennek vannak veszélyei. Pl. a Microsoftnak volt egy MI-je, ami így működött. Rászabadult pár náci ideológiát valló ember, az MI meg szépen megtanulta tőlük, hogy milyen témáról milyen véleményt kell írni. Persze jött a clickbait hír, hogy náci lett az MI, holott csak arról van szó, hogy nagy hatékonysággal megtanulta leutánozni azt, amit mintaként látott, anélkül, hogy bármit is értene annak az értelméből. Ebből az esetből – meg pár kisebb hírt kavaró másik esetből – az MI fejlesztők ezt igyekeznek elkerülni. Egy átlag felhasználó lehet ostoba, tudhat valamit rosszul, ha az MI ezt tanulja meg, akkor egy ostoba, dogokat rosszul tudó MI felé haladnánk.
A másik út, hogy az MI futtatása közben nincs tanulás. Ekkor viszont az MI nem hogy nem csinál semmit két bemenet között, hanem sok bemenet hatására sem változik az állapota. Nem fog „gondolkodni” dilemmatikus kérdéseken, nem fogja megváltoztatni a „véleményét”, akkor sem, ha amúgy jogos lenne, és amúgy milliószámra kap olyan inputot, ami a véleménye megváltoztatására próbálná ösztönözni hiába, hiszen az MI-nek nem véleménye van, hanem kimenetgenerálási algoritmusa.
Pont ezért, ha megkérdezed egy MI-től, hogy mi Franciaország fővárosa, akkor nem fog úgy válaszolni, hogy „Párizs. De amúgy jó is, hogy újra látlak, gondolkodtam azon, amiről januárban beszélgettünk, és egy gipszjakab nevű felhasználóval folytatott beszélgetésem tanulságaként módosítanám a januárban leírt álláspontomat.” Nincs olyan mechanizmus, ami képessé tenné erre, sőt igencsak problémás megtalálni, hogy ha ilyen képességgel is fel akarnánk ruházni az MI-t, akkor hogyan lehetne ezt úgy megvalósítani, hogy az egy jobb és ne egy használhatatlanabb MI-t eredményezzen.
A vicc az, hogy a MI a jelenlegi lehetőségekkel nagyjából elérte a határait.
Ugyanis az internetről tanul, és a mostaniak nagyjából ismerik az egész internetet az adott témában. Tehát ennél okosabbak mostanában nem lesznek.
Sőt: mivel egyre több az interneten a MI által készített anyag, ami vagy ugyanaz, mint ami már eleve ott volt, vagy pedig butaság - ezért az újabb MI már több butaságot tanul meg, mint az eddigiek, tehát butább lesz, többször téveszt.
A tudósok már dolgoznak ezen a két problémán, de egyelőre nincs sok ötletük.
Azért kíváncsi vagyok, hogy a lepontozó mire alapozta a pontozását.
Leírhatná. Mert az, hogy nem tetszik neki az igazság, szerintem még nem elég ok ehhez.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!