Ki lehetne "kepezni" egy AI-t arra, hogy orszagot iranyitson?
Érdekes kérdés, és jelenleg a válasz minden téren katagorikus nem. A jövőre nézve már bonyolultabb a válasz, de ahogy te árted a dolgot, arra akkor is nem. Azért ezt kifejtem.
Először is jelen pillanatban az AI még arra sem alkalmas, hogy egy autót elvezessen, nemhogy egy országot. De az is kifog rajta, hogy egy rajzon felismerjen egy cicát, holott utóbbit egy kétéves gyerek is megcsinálja.
Az AI tökéletesen alkalmas arra, hogy a múlt történései alapján pontosan és objektíven előre jelezzen járványokat, gazdasági összeomlásokat, felismerjen betegségeket a CT felvételen, de képtelen arra, hogy megértse, hogy itt a kulcs, hozza fel a postádat. Egyszerűen azért, mert absztrakciós készségük jelenleg nincs, csak azt tudják megcsinálni, amire meg vannak tanítva. Szerintem nem kell részletezni, miért alkalmatlanok vezetésre.
A másik probléma velük az, hogy csak olyan adatokból tudnak dolgozni, amit emberek hoztak létre, és adnak oda neki. Pl ha az AI azt látja, hogy a romák között nagyobb a visszaeső bűnözés aránya, akkor bíróként az AI romáknak súlyosabb letöltendő büntetéseket fog kiszabni. Nem azért, mert moralizál, hanem pont azért, mert nem.
Az AI a múltból dolgozik, márpedig a múltban sok a hibás döntés, ami az adatokat befolyásolta. Egy vezetésnek a dolga éppen az lenne, hogy olyan jövőt építsen, ami még nem volt, nem az, hogy újra csinálja, ami már volt. Ehhez éppen a moralizálás és az ideológiák fontosak egy vezetésben. Az AI abban segíthet sokat, hogy megmérje, tényleg működik-e az az ideológia, de nem dönthet.
Mégis úgy gondolom, hogy lehet szerepe az AI-nak a döntéshozásban, de nem mint döntéshozó, hanem mint megszakító. Tegyük fel, hogy egy klímacsúcson egy nagyon drasztikus megállapodást kellene kötni, de mind az USA, mind Kína tart attól, hogy a másik nem tartja be, vagy mint Trump, váratlanul egyenesen kilép belőle. Emiatt a kölcsönös bizalmatlanság miatt nem lehet komoly megállapodásokat kötni.
Mi lenne, ha azt tudnánk mondani, hogy írunk egy AI-t, amelyik figyeli az összes országot, és ahol a CO kibocsátás elér egy szintet, az AI azonnal szankcionál? Pl lejjebb veszi az áramtermelést, a tőzsdén plusz adóval terheli az oda köthető cégeket. Ezt a szoftvert mindkét ország felügyeli, és biztos lehet benne, hogy a másik fél nem tudja átverni. Na egy ilyet el tudnék képzelni.
#12
"de képtelen arra, hogy megértse"
Ha az ember meg tudta volna ezeket érteni, akkor tökéletes választ tudott volna adni ezekre, ami egyszer sem történt meg a történelem során.
Pont hogy olyan sok szempontot kell figyelembe venni és olyan pontosan, hogy erre ember fizikailag sosem lesz képes, max egy gép.
"csak olyan adatokból tudnak dolgozni, amit emberek hoztak létre, és adnak oda neki"
Ez simán nem igaz. Nagyon sok AI pl. saját szimulációkat futatt és nem emberi adatokból dolgozik.
"ha az AI azt látja, hogy a romák között nagyobb a visszaeső bűnözés aránya, akkor bíróként az AI romáknak súlyosabb letöltendő büntetéseket fog kiszabni"
Ez szintén nem igaz, még csak nem is így működik a bíróság.
Az AI és a bíró is a múltat veszi figyelembe, nem pedig a potenciális jövőt. Nem ültethetsz valaki le hosszabb időre, mert lehet, hogy a jövőben visszaeső lesz.
Ilyen nincs.
"Az AI a múltból dolgozik, márpedig a múltban sok a hibás döntés, ami az adatokat befolyásolta"
De hibás döntésből pont nem optimális eredmény született, amit az AI tud és ebből tanul, hogy X döntés után egy Y negatív következmény lett, és akkor megpróbálja elkerülni.
Itt nem csak döntéseket tanul meg, ha már erről beszélünk, hanem döntés-következményeket is.
És egy döntés akkor szokott rossz lenni, akkor ítéljük meg rossznak, ha a következmény is rossz.
"erre ember fizikailag sosem lesz képes, max egy gép"
A postás példát a jelenlegi állapotra értettem. Igen, minden bizonnyal képes lesz rá a jövőben.
"Nagyon sok AI pl. saját szimulációkat futatt és nem emberi adatokból dolgozik."
Nem látom be, mi másból tud dolgozni egy társadalmi szimulációt futtató AI, mint emberi adatból? Mármint, ha mondjuk a google az egyéni keresési statisztikákból dolgozik, az nem egy egyén által betáplált adathalmaz, de emberi adat. Egyúttal a szimulációs feltételek és a célkitűzés egy szűk célcsoport feltételei, és baromira befolyásolják a következtetést.
"Az AI és a bíró is a múltat veszi figyelembe, nem pedig a potenciális jövőt."
Így van, és az AI gyakran sokkal jobb következtetésre jut még bírósági kérdésekben is. Ugyanakkor múltbéli adatokkal emberek látják el, akiknek a berögződései befolyásolják az AI-t. Az etnikai példa nem az én agyszüleményem, konkrétan megtörtént.
"De hibás döntésből pont nem optimális eredmény született, amit az AI tud és ebből tanul, hogy X döntés után egy Y negatív következmény lett, és akkor megpróbálja elkerülni."
Igen, de az AI számára nincs előjele az eredménynek, az eredmény csak van. Az, hogy mi a kívánatos eredmény jelen pillanatban az ember dönti el, az AI pedig erre optimalizál. Ha számomra, mint az AI-t dolgoztató ember számára a profit maximalizálása a cél, az AI egészen mást fog hibás döntésnek meghatározni, mint ha mondjuk a társadalmi egyenlőséget.
Az AI egyelőre eléggé túl van becsülve"
Te már csak tudod
#14
"A postás példát a jelenlegi állapotra értettem. Igen, minden bizonnyal képes lesz rá a jövőben."
ÉS miért? Mármint a kérdező is nyilván a jövőről beszélt, akkor te miért nem?
"Nem látom be, mi másból tud dolgozni egy társadalmi szimulációt futtató AI, mint emberi adatból?"
Itt a parkolás példát hoztad. Megtaníthatsz egy AI-t úgy beparkolni, hogy emberi parkolásokat mutogatsz neki és azt kezdi el másolni. De úgyis, hogy megmondod neki, hogy hogy tud mozogni és hagyod, hogy ő találja ki.
Ehhez nyilván nem kell fizikai autó, egy szimulációban ugyanúgy lehet, így nem tudja összetörni és nem tanulja meg az ember hibáit.
"Ugyanakkor múltbéli adatokkal emberek látják el, akiknek a berögződései befolyásolják az AI-t. Az etnikai példa nem az én agyszüleményem, konkrétan megtörtént."
Na, ez itt viszont más, mert eleinte nem így adtad elő.
Az AI nem azért adott hosszabb letöltendőt, mert gyakrabban esnek vissza, hanem mert az ember azt adott, és az ember nem azért adta, mert gyakrabban esnek vissza, hanem mert az ember rasszista. Ez a különbség a te eleinte elmondott story-d és aközött, amire itt gondolsz.
"Igen, de az AI számára nincs előjele az eredménynek, az eredmény csak van"
LOL, nem, kimondta neked ezt a hülyeséget? :DDDD
Hogyan lehetne megtanítani egy mesterséges intelligenciát, hogy beparkoljon - ha már ezt hoztad korábban -, ha nincs kedvező eredmény? De bizony van kedvező eredmény, parkolás sebessége, pontossága stb.
Egy társadalmi kérdésben is van ilyen, pl. alacsony munkanélküliség, magasabb GDP, alacsony bűncselekményi statisztikák stb.
"Ha számomra, mint az AI-t dolgoztató ember számára a profit maximalizálása a cél, az AI egészen mást fog hibás döntésnek meghatározni, mint ha mondjuk a társadalmi egyenlőséget."
Melyik ország működik úgy, hogy profit maximalizálás a cél? Egyik se.
Az emberi jólét a cél és ez alapján bizony kb. minden adat eldönthető, hogy milyen "előjelű".
Van egy olyan érzésem, hogy betettél valami skatulyába a tekintetben, hogy mit gondolhatok a témáról, és emiatt bármit mondok, félreértésbe kerülünk.
"a kérdező is nyilván a jövőről beszélt, akkor te miért nem?"
Olvasd vissza, mit írtam: szétválasztottam, hogy a jelenlegi fejlettségi szint alapján biztosan nem alkalmas a feladatra, a jövőt tekintve pedig szerintem nem szerencsés irány. Azután próbáltam kicsit kifejteni, hogy hogyan kell elképzelni egy AI hozzáállását és korlátait.
"Itt a parkolás példát hoztad."
Nem, az autóvezetés példát hoztam. Parkolni már most is tud az AI, és igen: erre valóban működik az, hogy megtanítod az alapkészségeit, majd hagyod kísérletezni. A parkolás egy egyszerű probléma. Egy társadalmi szimuáció nem parkolás.
"Ez a különbség a te eleinte elmondott story-d és aközött, amire itt gondolsz."
Nem: pontosan ez volt a story, amit elmondtam. Ha egy AI-tól azt várod, hogy moralizálástól és előítéletektől mentes legyen, akkor nem szabad elfelejteni, hogy mivel te tanítod fel, ezért akaratlanul is befolyásolod az előítéleteiddel. Az AI egy neurális háló, ami az emberi agyat mintázza, és ahogy a gyerekedet befolyásolod a viselkedéseddel, úgy az AI is azt tanulja fel, amit tapasztal.
"Az emberi jólét a cél és ez alapján bizony kb. minden adat eldönthető, hogy milyen "előjelű"."
Persze, hogy eldönthető, én nem is mondtam ezzel ellenkezőt. Azt mondtam, hogy ezeknek az előjele morális, vagy/és ideológiai értékítélet. Pl a növekedő népesség a gazdasági növekedés szempontjából pozitív előjelű, a fenntarthatóság szempontjából meg negatív. A mindenkori társadalom aktuális értékítélete dönti el, mi az előjel, a géptől meg pont azt várnánk, hogy ideológiától és moralizálástól mentesen irányítson. Ez fából vaskarika, mert a morális döntés maga a célfüggvény.
"Melyik ország működik úgy, hogy profit maximalizálás a cél? Egyik se."
Nem látom ilyen feketén-fehéren, de ha igazad is van, ezt a döntést megint az ember hozza. Hogy banális példákat hozzak, Észak-Koreában egészen biztosan bekerülne közéjük a rendszerrel ellentétes vélemények számának minimalizálása, vagy mondjuk Magyarországon a nemátalakító műtétek száma, és hasonlók. Ugyanaz a helyzet, mint az etnikai példánál: ha a programozó rasszista, az AI is az lesz.
#17
"Van egy olyan érzésem, hogy betettél valami skatulyába a tekintetben, hogy mit gondolhatok a témáról, és emiatt bármit mondok, félreértésbe kerülünk."
Az alapján, ami eddig itt elhangzott mindenkit betettem a laikus kategóriába. Esetleg 1-2 dolgot olvasott róla, de sosem tanulta vagy fejlesztette.
"A parkolás egy egyszerű probléma. Egy társadalmi szimuáció nem parkolás."
20 évvel ezelőtt a parkolás is komplex volt.
"Nem: pontosan ez volt a story, amit elmondtam"
Ismerem a story-t és nem ez volt. Az AI megtanulta, hogy a bírók rasszista döntéseket hoztak, ezért azt átvette.
"Ha egy AI-tól azt várod, hogy moralizálástól és előítéletektől mentes legyen, akkor nem szabad elfelejteni, hogy mivel te tanítod fel, ezért akaratlanul is befolyásolod az előítéleteiddel."
Ha én rasszista vagyok mondjuk, de bőrszín információja nélkül tanítom és azt nem is ismeri az új ügyeknél sem, akkor hogyan befolyásolom?
Te itt komolyan azt gondolod, hogy több millió adatot átnéznek emberek és átírják, hogy befolyásolják az algoritmust?
"Az AI egy neurális háló, ami az emberi agyat mintázza"
Nem, az esetek töredékében igaz, de egy csomó AI esetében nem.
És igen, ilyen kijelentések miatt kerültél te is a laikus kategóriába.
"Azt mondtam, hogy ezeknek az előjele morális, vagy/és ideológiai értékítélet."
Mondj egy ideológiát vagy értékítélelet, ami szerint a csökkenő GDP jó.
Sok sikert.
"Pl a növekedő népesség a gazdasági növekedés szempontjából pozitív előjelű, a fenntarthatóság szempontjából meg negatív."
Egy AI-nak meg irreleváns, mivel a jelenleg benne élők helyzetét kell figyelembe vennie.
A gazdasági növekedés azért hülyeség ilyen szempontból, mert több ember lesz, de egyfőre jutó GDP kevesebb lesz, leglaábbis eleinte mindenképp és nincs garancira, hogy később magasabb lenne, mert csöves is lehet a gyerekből.
Így de, ez elég egyértelműen eldönthető kérdés.
"Nem látom ilyen feketén-fehéren, de ha igazad is van, ezt a döntést megint az ember hozza"
Pedig bizony sok ilyen kérdés van, amiben ennyire egyértelmű a válasz.
Akarsz fizetés emelést ugyanazért a munkáért, amit csinálsz?
"Ugyanaz a helyzet, mint az etnikai példánál: ha a programozó rasszista, az AI is az lesz."
Nem. És ez megint csak laikusságra utal.
Ez egy hatalmas tévképzet. A programozónak ilyen szempontból nincs ráhatása az esetek 99%-ában. A programozó veszi a rendelkezésére álló mintát, amiben több millió adat van, nem nézi át egyesével és azon tanít.
Ha abban a bírók rasszista ítéletet hoztak bőrszín alapján, akkor a programozó arról nem tehet.
Igen, pontosan ezt érzem: betettél a laikus kategóriába, és ezért folyamatosan félreérted, amit mondok. Amúgy erre van is alapod, mert én amolyan szemi-laikus vagyok, mert eredetileg programozó vagyok, de sosem fejlesztettem AI-t, az egyetem csak érintőleges volt, én meg lusta és felszínes.
Ezt csak a jegyzőkönyvbe említettem, mert amúgy a félreértéseink nem ebből fakadnak, hanem abból, hogy mivel betettél a laikus kosárkába egyúttal a véleményemet is megelőlegezted. Szerintem te azt gondolod, hogy én azt gondolom (jaj :)), hogy az AI sosem lesz képes olyan jó döntéseket hozni, mint az ember. Nem gondolom ezt, tudom, hogy amire az ember képes, arra idővel a gép is képes lesz, csak még sokkal többre is.
Amit én mondani próbáltam annyi, hogy ha azt várjuk el egy géptől, hogy az emberi mércén hozzon morálisan jobb döntéseket az embernél, és ezt azzal indokoljuk, hogy a gép nem moralizál, az fából vaskarika.
Elfogadom, hogy a példáim nem a legjobban voltak megfogalmazva, de nem is éreztem, hogy érteni akarod. A benyomásom sokkal inkább az volt, hogy meg akarsz győzni arról, hogy én ehhez nem értek.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!