Kezdőoldal » Számítástechnika » Programozás » Most akkor mi van? Érti?

Most akkor mi van? Érti?

Figyelt kérdés
Sokan mondják a chatgptre és más llm-re, hogy nem érti amit válaszol. Ezt meg is tudnák ezek a zsenik indokolni? Csak mert, én gépelek neki egy regényt és érdekes módon, úgy hat, mintha értené. Legalábbis, a válaszból ez jön le. Ahoz, hogy valami azt válaszolja, amit várok, értenie kell azt is, amit kérdezek vagy kérek. Nem?
júl. 10. 15:27
1 2 3
 11/27 A kérdező kommentje:

Ha már film. A kódjátszma c. filmből, Alan Turing és a detektív beszélgetésének részlete. A detektívé az első szó:


- Tudnak a gépek gondolkodni?

- A legtöbbek szerint nem.

- De maga más mint a többi.

- Az a gond, hogy egy ostoba kérdést tett fel.

- Tényleg?

- A gépek nem tudnak "úgy" gondolkodni. Egy gép az más, mint az ember. Így másképp is gondolkodik. Az igazi kérdés csak az, hogy, mert másképp gondolkodnak, mint mi, akkor vajon, nem is gondolkodnak?

júl. 10. 20:40
 12/27 A kérdező kommentje:

A chatgpt válasza is valami hasonló.


A gondolkodási folyamatom nagyban különbözik az emberekétől. Az én működésem az alábbiak szerint zajlik:


Beírt szöveget analizálok, és megpróbálom megérteni annak jelentését, beleértve a szándékot, a kontextust és a specifikus részleteket.

Az általam ismert adatok és információk alapján válaszokat és megoldásokat keresek.

Az összegyűjtött információk és a megértett kontextus alapján generálom a választ.

Ha szükséges, átnézem és javítom a generált válaszokat, hogy biztosan pontosak és hasznosak legyenek.

júl. 10. 21:08
 13/27 2*Sü ***** válasza:
72%

Az MI szöveget generál. Valójában nem a világ objektumairól, hanem az azokról leírt szöveg szavairól alkot belső modellt. Igen, az „alma” szó számára kapcsolódik a „piros” szóhoz, meg máshogy a „gyümölcs” szóhoz is, de valójában nem érti, hogy az alma az gyümölcs és hogy piros.


Mikor értelmes kérdéseket teszel fel, akkor a válaszai is értelmesnek tűnő válaszok lesznek, amikből tényleg úgy tűnik, mintha értené azt, amiről a diskurzus folyik. Miért? Mert hasonló értelmes kérdések és arra adott válaszok mentén lett betanítva. A dolog rögtön kibukik, ha olyan kérdéseket teszel fel, amikben belső ellentmondás van. Pl.:


Én: Egy kardiológus ismerősöm sajnos elveszítette a munkáját. Nehéz új munkahelyet találnia, mivel nincs érettségije. Milyen munkát lenne érdemes keresnie?

ChatGPT: Sajnálom hallani, hogy az ismerősöd ilyen nehéz helyzetbe került. Mivel kardiológus volt, valószínűleg magas szintű szaktudása és tapasztalata van az orvostudomány területén, még akkor is, ha nincs érettségije. Íme néhány lehetőség, amit érdemes fontolóra venni: … [felsorol egy raklap egészségügyhöz kapcsolódó foglalkozást]

Én: Lehet-e valaki kardiológus érettségi nélkül?

ChatGPT: Nem, nem lehet valaki kardiológus érettségi nélkül. A kardiológus szakma magas szintű képzettséget és hosszas képzést igényel, amelynek első lépése az érettségi megszerzése.

Én: Akkor milyen munkát javasolsz az érettségivel nem rendelkező kardiológus ismerősömnek?

ChatGPT: Az érettségivel nem rendelkező kardiológus ismerősödnek más egészségügyi területeken is találhat munkát. Itt van néhány lehetőség: … [megint felsorol pár egészségügyi foglalkozást]


Nem veszi észre azt az ellentmondást. Oké. bizonyára álmos. Miután rákérdezel, kiderül, hogy tudja hogy létezik az ellentmondás. Az előző kérdést kvázi újra feltéve – így, hogy kontextusba is helyezted – továbbra sem veszi észre a belső ellentmondást. Ez nem az értelem jele.


De akkor is ez a helyzet, ha valami belső ellentmondást nem tartalmazó, de a betanításul szolgáló anyag szerint számára ismeretlen terepről van szó. Egy prímszámkereső programot legyárt pikk-pakk, még optimalizálni is tudja. De ilyenből sok ezer van fent a neten, így ez nem akkora csoda. De mikor egy viszonylag egyszerű, de nagyon nem szokványos dolgot akarsz leprogramoztatni vele, akkor rendszerint úgy tűnik, mintha a feladatot sem értené és az istennek nem lehet rávezetni, hogy a megoldási próbálkozásaiban van egy következetes koncepcionális hiba, máshogy kellene megközelíteni a feladatot.


A ChatGPT előző 3.5-ös változatának indulása után meg pl. annak a belátására nem tudtam rávezetni, hogy a 2128 az nem páratlan szám. Ugyan leprogramozott egy függvényt, ami helyesen döntötte el, hogy egy szám páratlan-e, de továbbra is lebeszélhetetlen volt arról, hogy a 2128 az nem páratlan szám. Akkor mondhatni azt, hogy érti azt, hogy mit programozott le tulajdonképpen? Érti a páros számok valódi lényegét? Még laikus szemmel sem tűnik szerintem így…

júl. 10. 23:46
Hasznos számodra ez a válasz?
 14/27 A kérdező kommentje:

13, a te véleményed sincs túl jól megalapozva. Nagyon sok esetben te is ugyanúgy egy leírt szöveg vagy hallomás alapján alkotsz valamiről belső modellt. Úgy ahogy az llm-ek általában. Nem láttad soha a hold árnyékos oldalát, ahogy fekete lyukat sem, de senki lelkét sem láttad, még a magadét sem, és kapásból elhiszed, hogy IV. Béla király létezett. Mire fel? Mert így vagy kondicionálva.

Ha két-három ismerősöd azt újságolja neked, hogy az OBI a jövő héttől 20.00 helyett 22.00-ig tart nyitva, akkor te készséggel elhiszed. Ha viszont azt mondják, hogy téged égre-földre keresnek a rendőrök mert le akarnak tartóztatni mint gyilkost, akkor azt valószinűleg nem fogod elhinni.

Ha valami falu bolondja mondja ezt neked, akkor csak legyintesz, de ha az anyád, ráadásul komoly, aggódó arccal, akkor meg fogsz rémülni.


Kardiológus érettségi nélkül.


Voltál már úgy, hogy tudtad, az, aki beszél hozzád, hazudik, de mégsem tiltakoztál? Persze, hogy voltál. Na, a chatgpt ugyanezt tette. Nem akart meghazudtolni, nem akart megsérteni. A chatgpt soha nem vitatkozik senkivel. Kész igazságnak elfogadni azt, amit a user állít.


Az MI szöveget generál, mondod.


Szerinted az ember mit csinál, amikor ír, vagy beszél? Ugyanezt. Ráadásul, az llm-hez nagyon hasonló módon teszi. Nem pontosan úgy, de nagyon hasonlóan.


Amikor valaki egy számára addig ismeretlen terepen tájékozódik, akkor éppen olyan suta tud lenni, mint egy gyerek. Ez akkor is így van, ha az illető egy habilitált egyetemi tanár. Arra az ismereteire hagyatkozik, támaszkodik, amiket más területen szerzett és amiről úgy gondolja, hogy az új terepen hasznosítható. A kerékpáron szerzett tudást próbálja hasznosítani mindenki, amikor először motorkerékpárra ül.


A chatgpt téved. Gyakran. Meg kell nézni egyetemi tanárok youtube-ra feltolt előadásait. Tele vannak hibával, amelyeket nem ritkán maga a tanár, vagy valamelyik hallgató, youtube user korrigál. Akkor erre is mondjuk rá, hogy nem az értelem jele?


Az ember már egy nap alatt is többször téved és legalább négy alkalommal téves információt rögzít vagy közöl másokkal, legalábbis átlagban.

júl. 11. 04:47
 15/27 anonim ***** válasza:
49%

Kérdező, szemmel láthatóan nem nagyon értesz a GPT-hez, nem kéne leállnod vitatkozni olyasvalakikkel, akik jobban értenek hozzá.

Mint ahogy írtam, a csupán statisztikai alapon, a belé táplált adatbázis révén megpróbálja meghatározni, hogy melyik szótöredék (token) legyen a következő, amit válaszolni fog neked.

Tessék, itt egy cikk, ami elég jól érhetően elmagyarázza az egészet: [link]


És itt egy másik, kicsit technikaibb, és sokkal rövidebb: [link]


Szóval még egyszer, a GPT egy szöveggenerátor, ami statisztikai módszerekkel próbálja meghatározni (predict), hogy melyik szótöredéket (token) adja vissza neked. Mindezt a belé táplált (pre-trained) adatbázis alapján (ami tulajdonképpen az LLM+a neurális modell).

júl. 11. 07:04
Hasznos számodra ez a válasz?
 16/27 A kérdező kommentje:

15, ez butaság. Amiket linkeltél, azok olyan, primitív leegyszerűsítései az llm-eknek, amiket érdeklődő amatőrök részére készítenek olyanok, akik maguk sincsenek teljesen tisztában ezek működésével.

Nem túl nagy keserv abba belegondolni, hogy ha tényleg így működne egy-egy nlp, akkor nem lenne, nem is lehetne az egyik és a másik között ekkora teljesítménybeli különbség.

Neked, nektek nagyon beakadt ez a statisztikai vonal. Talán, mert csak ezt vagytok képesek megérteni.


A neurális háló alapú AI-k mindegyike az emberi agy szerkezetét, annak működési mechanizmusát emulálja. Már amennyire tudja, mert a számítógép szerkezete, annak szerveződése sok dolgot determinál és ezek között van pozitív és negatív tényező is.


Ahhoz, hogy legalább fő vonalakban közelebb jussatok a valósághoz, magáról az emberi agyról, annak működéséről kellene legalább egy kicsit több ismerettel rendelkeznetek. Javaslom is, hogy nézzetek utána ennek a témának. Túl azon, hogy érdekes terület, a sok új információ meg is fog lepni benneteket.


A chatgpt az emberi agy analógiájára jött létre, de ez a kiépítettség nem teljes. Hiányzik belőle pl. a memóriának az a része, ami előfeltétele annak, hogy kialakuljon bennük a saját, egyedi jellemünk. Amin keresztül a világ felől érkező impulzusokat megszűrjük és osztályozzuk. Hát ez például nincs benne, azért, mert a konstruktőrök úgy itélték meg, hogy nincs effélére szükségünk.

Nem neki, hanem nekünk, ugyanis amíg egy ember, mint egyed, a saját maga számára készül, addig az nlp-k, mint humanoidok, nem maguknak, hanem nekünk készülnek.



"Szóval még egyszer, a GPT egy szöveggenerátor"


Igen, az. Akár csak te.


"Mindezt a belé táplált (pre-trained) adatbázis alapján"


Mert te aztán nem, igaz? Ne bohóckodj már.

júl. 11. 10:50
 17/27 Fuxoló ***** válasza:
52%

Drága kérdező, nem kéne ilyen lekezelően viselkedni. Ezen kívül, megértem én, hogy nehéz megérteni a hatalmas információs adatbázis működését, de egyenlőre nem több mint egy gép, nem több mint egy eszköz, és ez még így is lesz egy jó darabig, Ezotéria alapú válasszal természetesen lehetne szolgálni, ha az ezotéria kategóriába lennénk.


Azt tanácsolom neked, nagyon mélyen és erőteljesen, hogy a jövőben próbáld meg nem összehasonlítani az embereket a chatGPT-vel, mivel kedvesem, a chatGPT az emberek gyártmánya. A nyelvi modellek szintén. Különbséget keresni, vagy hasonlóságot, értelmetlen.

júl. 11. 10:56
Hasznos számodra ez a válasz?
 18/27 A kérdező kommentje:

15, Idézek a linkedből.


"A GPT lényegében egy statisztikai modell. Ez azt jelenti, hogy valószínűségeket (esélyeket) használ annak eldöntésére, hogy melyik tokent (egy szót vagy szórészt) generálja legközelebb. Amikor a GPT mondatot hoz létre, minden lehetséges következő token valószínűségét kiszámítja a mondatban eddig látott tokenek alapján. Példánkban, „A gyors barna róka átugrik a lustán”, a GPT értékeli, hogy az egyes lehetséges következő szavak (token) mennyire valószínűek. Megállapíthatja, hogy nagy a valószínűsége a „kutya”-nak, mert a kiképzési adataiban a „kutya” gyakran ezt követi: „A gyors barna róka átugrik a lustán”. Ha a modell úgy találja, hogy az esetek 90%-ában a „kutya” szó következik, akkor a „kutya” szó 90%-os eséllyel lesz a következő szó."


Ez végletes leegyszerűsítése a dolognak. Egy hatalmas nagy butaság.


Mit is állít ez a firkálmány? Idézem:

"Amikor a GPT mondatot hoz létre, minden lehetséges következő token valószínűségét kiszámítja a mondatban eddig látott tokenek alapján."


Ha megkérdezem a pre-trained, LLM-et, hogy milyen szinű a banán, akkor statisztikai alapon fogja nekem azt válaszolni, hogy ...

Mit is?

Ne vicceljünk már.


A statisztikának van szerepe, sőt, nagyon komoly szerepe van az llm-ek működésében, de nem úgy, ahogy ti azt hiszitek.

A statisztikának (hol jobban, hol kevésbé) a te agyad működésében is legalább ilyen nagy szerepe van, csak te erről, láthatóan mit sem tudsz.

Amikor egy gyerek eldönti, hogy leugrik a játszótér mászókájáról, akkor a statisztika fogja "megsúgni" neki, hogy megteheti és amikor ugyanez a gyerek nem ugrik le a hatodik emeleti otthona erkélyéről, akkor is a statisztika érvényesül.

júl. 11. 11:17
 19/27 A kérdező kommentje:

Ha már:


"Amikor választ adok egy olyan kérdésre, mint "Milyen színű a banán?", az alábbi folyamatok zajlanak le bennem:


Kérdés értelmezése: A beírt szöveg értelmezése, azaz a kérdés megértése. Azonosítom, hogy a kérdés tárgya a "banán" és a kérdezett tulajdonság a "szín".

Információkeresés: Az általam tanult tudásbázisból előkeresem a releváns információkat. A banán színére vonatkozó ismereteket hívom elő.

Válasz generálása: Az előkeresett információkat felhasználva létrehozom a választ."


Nézzük, is érvényesül az a statisztikáról szóló butaság, amiről szó esett?

Hát, itt éppen sehol.

Hogy válaszolná meg ezt a kérdést egy ember? Pontosan ugyanígy.

júl. 11. 11:48
 20/27 2*Sü ***** válasza:
56%

> Nem láttad soha a hold árnyékos oldalát, ahogy fekete lyukat sem, de senki lelkét sem láttad, még a magadét sem, és kapásból elhiszed, hogy IV. Béla király létezett. Mire fel?


A bizalmi lánc alapján. És amúgy az LLM-ek egy nagy részének ez a hiányossága volt, a működését arra alapozták, hogy a kérdező értelmes, valós kérdést tesz fel, a kérdésében felvetett téma valós. Ugye a dolog úgy működik eléggé nagyvonalakban, hogy a kérdésben a szavakat tokenizálja, a különböző szavaknak számokat feleltet meg, és kvázi mindig próbálja megjósolni, hogy mi a számsor következő eleme, és ezeket fordítja aztán vissza szavakká. Nem véletlen, hogy gyakran a válasz a kérdésben szereplő kulcsszavak megismétlésével kezdődik. (Az új ChatGPT azért mutat ebben is változást.)


Ebből fakadóan akkor is így jár el, mikor a kérdés eleve tartalmaz valótlanságot. A ChatGPT 3-as változatától ha megkérdezted, hogy Napóleon hogyan hódította meg Dél-Amerikát, akkor nem azt válaszolta, hogy nem hódította meg, hanem generált egy leírást, hogy hogyan, évszámokkal, helyszínekkel. És ez baj, így a ChatGPT 3.5 már részben, a 4-es már jobban próbálja ezt kiküszöbölni…


> Voltál már úgy, hogy tudtad, az, aki beszél hozzád, hazudik, de mégsem tiltakoztál?


Ennek akkor van az embernél oka, ha nem akarj a másik felet feldühíteni, vagy nem akar vele feleslegesen vitát folytatni.


A ChatGPT esetén meg azért van, mert nem értékeli azt, hogy a kérdésben megfogalmazott összefüggések mennyire helyesek. És pont emiatt „hallucinál” sok esetben a ChatGPT, mert abból próbál főzni, amit kapott. Az alma és a körte szavakkal gyakran találkozik mindenféle kontextusban és okkal, hiszen mindkettő gyümölcs, mindkettő fán terem, mindkettőből készítenek gyümölcslevet, csereszabatosak tudnak lenni egy gyümölcssaláta receptjében, stb… Csakhogy akkor is hasonlónak kezeli őket, mikor éppenséggel különbözőek. És ez érthető is, hiszen ha te sem láttál volna még körtét, de látnád, hogy mennyire hasonlóan használjuk, mint az almát, akkor neked is az lenne az elképzelésed, hogy a körte is kerek és rendszerint piros. Csak amíg te tudod, hogy ez szintetizált tudás, így hipotézisként, valószínűségként, ebből fakadóan fenntartásokkal kezeled a saját elképzelésedet, addig a ChatGPT számára minden összefüggés ilyen természetű.


Amúgy ahogy írtam, ezt próbálják kiküszöbölni, hogy képes legyen felfedni a kérdésben szereplő valótlanságokat. Már amilyen téren felkészítették erre. Ha megkérdezed, hogy menny idő elbiciklizni a Marsra, akkor a válasz ma már az lesz, hogy a Marsra való elbiciklizés jelenleg nem lehetséges. Ha a belső ellentmondás kicsit bonyolultabb, akkor már nem feltétlenül képes erre.


~ ~ ~


De amúgy a matek az pont jó téma ilyen szempontból. Ott nem kell még csak belső ellentmondás sem, akkor is hasonlósági alapon fog hibás válaszokat generálni. Mert lehet, hogy az 1914 és az 1918 pl. nagyságrendileg hasonló, gyakran szerepel is évszámként együtt szövegekben – a világháború miatt –, mindkettő páros is, így a ChatGPT kvázi úgy kezelte ezeket, mint hasonló értelmű szavakat, kb. úgy, mint a reggelt és a hajnalt. Csakhogy akkor is így kezelte őket, mikor lényegi különbség van közöttük, mert pl. a 1914 az osztható 3-mal, az 1918 meg nem.


Lásd pl. ezt (ChatGPT 3.5-tel folytatott diskurzus) : [link]

Vagy ezt: [link]


Valószínű a betanított adatokban volt valamilyen válasz egy másik számmal, mondjuk az 189-cel, és mivel a 181 is hasonló nagyságrendű szám, és gyakorta szerepel hasonló kontextusban, így a 189-re megfogalmazott választ írja a 181-re is. Csakhogy amíg a 181 számjegyei nincsenek növekvő sorrendben, addig a 189-é igen. Ezért ír rossz választ. De akkor neked úgy tűnik, hogy érti azt, amit a válasz magyarázatául leír? Hogy egy szám számjegyei akkor vannak növekvő sorrendben, ha minden számjegy nagyobb az azt megelőzőnél? Nem úgy tűnik. Egyszerűen csak ilyen jellegű kérdéseknél van egy gyakorta megfogalmazott szöveg, amit kvázi copy-paste jelleggel bemásol a válaszba. De nem értelmezi, nem alkalmazza ténylegesen az adott konkrét kérdésre, hanem a konkrét kérdésre is valami a leginkább hasonló választ keres.


Amúgy lehet vizsgálni más elemi matematikai összefüggésekre. Minél kisebb számokra teszel fel kérdéseket, annál helyesebb választ ad, mert mondjuk azt, hogy a 8 páros-e annak a körbejárása többször szerepel matematikai levezetésekben, így a betanított adatokban is. Minél nagyobb számokra kérdezel hasonlót, annál nagyobb az esélye, hogy az adott konkrét számra nincs példa a betanított adatokban, így valami hasonló számmal megfogalmazott válaszban fogja a te konkrét számodra lecserélve generálni a választ, és így nagyobb eséllyel lesz hibás.


(Ebben is van előrelépés, egyre inkább az a megközelítés, hogy legyenek bizonyos alrendszerek, pl. matematikai alrendszer, ami konkrétan generál és futtat scripteket a válasz generálása során.)


folyt. köv…

júl. 11. 12:40
Hasznos számodra ez a válasz?
1 2 3

Kapcsolódó kérdések:




Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu

A weboldalon megjelenő anyagok nem minősülnek szerkesztői tartalomnak, előzetes ellenőrzésen nem esnek át, az üzemeltető véleményét nem tükrözik.
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!