Kezdőoldal » Tudományok » Alkalmazott tudományok » Van bármilyen bizonyíték arra...

Van bármilyen bizonyíték arra hogy a mesterséges intelligencia nem fog az emberiség ellen fordulni?

Figyelt kérdés
2020. febr. 23. 10:30
1 2 3
 11/23 Tislerics Máté ***** válasza:
53%

Minél emberibbre próbáljuk csinálni az MI-t, annál inkább kell hasonlítson egy átlagos emberre, aki bizony a körülmények hatására akár terrorista is lehet. Ha nem képes fanatizálódni az MI, akkor nem is úgy gondolkozik, ahogy az ember. Tehát meg kell hagyni a lehetőséget neki, hogy fanatizálódhasson, különben nem lesz elég élethű és elbukja a Turing teszteket...


Az MI fejlesztése még nagyon fiatal terület, de már most is az emberi gondolkodást szimuláló programok az egyik legnépszerűbbek. Tehát az igény megvan az ilyenek fejlesztésére. A homokba dugnia fejünket már késő.


Sajnos ha ezek (ők) nem lesznek képeske sétálni, enni, inni, sexelni, társalogni, sportolni, stb, akkor csak börtönbe zárt emberi gondolkodással rendelkező entitások lesznek. És mit csinál egy egész életére börtönbe zárt ember? Hát bekattan! Szóval ki kell majd engedni őket. Elvegyülni az emberek között, hogy még tökéletesebben képesek legyenek hozzánk hasonlóan gondolkodni. Emberi vágyak, ösztönök, genetikai tulajdonságok nélkül az MI el fogja bukni az egyre jobb Turing (voight kampff) teszteket...


A jövőben el kell majd döntenünk, hogy mennyire akarjuk emberire csinálni őket. Mert bizony minél emberibbek lesznek annál verséjesebbek is.

2020. febr. 24. 09:17
Hasznos számodra ez a válasz?
 12/23 anonim ***** válasza:
48%

Nem értem, miért kell bántani a kérdezőt... Megkérdezte, hogy valami tudja-e garantálni, hogy nem lesz Terminátor 3 az életünkből. De azt sem tudhatjuk, hogy a kérdező milyen indíttatásból tette fel a kérdést, így kár is megvádolni azzal, hogy a konyhakést is be akarja tiltatni...


Továbbgörgetném a kérdést; oké, vegyük úgy, hogy maga az AI valószínűleg magától nem fog embereket öldösni. De mi van olyankor, hogyha valaki ír egy olyan vírust, ami úgy átkódolja, hogy mégis? Tehát nem maguktól élednek "öntudatra", hanem egy fertőzésből fakadóan.

2020. febr. 24. 13:28
Hasznos számodra ez a válasz?
 13/23 anonim ***** válasza:

Már jó párszor leírtuk: az eljövendő emberiség 𝐦𝐢𝐧𝐝𝐞𝐧 𝐞𝐠𝐲𝐞𝐬 tagja 𝐧𝐚𝐠𝐲𝐨𝐧 szelíd lesz!

Ez történt az emberiséggel idáig is a majmokhoz képest.


Ha esetleg nem így történne, akkor nem lesz eljövendő emberiség.

Ugyanis 100 év múlva már akár egy óvodás is atomháborút robbanthat ki az atommeghajtású babakocsijával.

2020. febr. 24. 13:45
Hasznos számodra ez a válasz?
 14/23 Wadmalac ***** válasza:
100%

"együk úgy, hogy maga az AI valószínűleg magától nem fog embereket öldösni. De mi van olyankor, hogyha valaki ír egy olyan vírust, ami úgy átkódolja, hogy mégis? Tehát nem maguktól élednek "öntudatra", hanem egy fertőzésből fakadóan."


Ismétlem, ezért kell okosan tervezni és sosem adni korlátlan, kontrollálhatatlan mindenhatóságot adni az AI kezébe.

Embernek adunk ilyen lehetőséget? Nem.

Hát az AI se kapjon ilyet.

Az AI, ha eléri az emberi intelligencia szintjét, pont annyira lesz veszélyes, mint egy ember pont annyi lehetőséggel a kezében.

2020. febr. 24. 13:59
Hasznos számodra ez a válasz?
 15/23 anonim ***** válasza:
100%

A haditechnikában alkalmazzák már régen, hogy minden tudásával emberek ellen harcoljon a MI.

Önvezető harci járművek, személyzet nélküli harci repülőgépek léteznek, amelyek döntenek is abban, hogy megtámadásukkor alkalmazzanak e válaszcsapást és azt az embernél gyorsabban és hatékonyabban teszik.

2020. febr. 24. 14:03
Hasznos számodra ez a válasz?
 16/23 Wadmalac ***** válasza:
100%

"Önvezető harci járművek, személyzet nélküli harci repülőgépek léteznek, amelyek döntenek is abban, hogy megtámadásukkor alkalmazzanak e válaszcsapást és azt az embernél gyorsabban és hatékonyabban teszik."


Na ez azért ma inkább még csak elvben, prototípusban stb. létezik, éppen, mert ezzel szemben erőteljes (jogos) aggályok vannak.

Amennyit én tudok, az izraeli hadseregnél történt már olyan, hogy a harcoló felek szétválasztására, barát-ellenség megkülönböztetésére képes öncélzó gépfegyver éles tesztben lesorozott pár baráti katonát.


Nem mintha egy drónirányító emberi pilóta nem hibázhatna a célpontválasztásban. És erre konkrétan volt is eset. Mivel pár napvilágra is került, hadititokban tutira még több ilyen történt már.


Egyelőre továbbra sem látom, hogy veszélyesebb lenne a szándékos vagy véletlen EMBERI hibánál ezen a téren.

2020. febr. 24. 14:41
Hasznos számodra ez a válasz?
 17/23 Wadmalac ***** válasza:

Itt érdemes olvasgatni az önálló döntésű hadigépeket ellenző nemzetközi szervezet tevékenységéről.


Egyelőre nincs hivatalos nemzetközi haditörvény tilalom ilyenek ellen , de a tiltakozások miatt még senki sem merte meglépni az alkalmazást.


[link]

2020. febr. 24. 14:57
Hasznos számodra ez a válasz?
 18/23 Vree ***** válasza:
100%

Szeretném egy másik szempontból megközelíteni: mely ponttól számít egy AI jogi személynek? Azaz mikortól tekintjük olyannak, aki "magunk közül való", élő lény, akit megilletnek ugyanazok az elidegeníthetetlen jogok (adott esetben akár az is, hogy megvédje magát vagy emberre támadjon)?


1857-ban az USÁban a fekete Dred Scott ügyében

[link]

az ítélőtábla úgy ítélt, hogy fekete (ÉS következésképp rabszolga) lévén Scottot NEM illeti meg az alkotmányban foglaltatott minden USA polgárnak járó emberi jogok. Vagyontárgyként lehet tulajdonosa, míg adott esetben akár a megölése nem számít gyilkosságnak.


A Star Trek "Mitől ember egy ember?" című epizódja központjában áll a főszereplő űrhajón szolgáló Data parancsnokhelyettes, egy kísérleti kisegítő android, akit emberhez hasonlatosra alkottak. A sorozat több episzódja szól Data fejlődéséről, hogy hogyan viszonyul magához vagy próbálja emegérteni és elsajátítani a "tudatod lény"hez illő viselkedésformákat. Ebben az epizódban egy robottechnikus, Bruce Maddox magának követeli az androidot (ami a Csillagflotta képviselőjeként jogában áll, lévén Data a Csillagflotta tulajdona), azt remélve, hogy szétszerelésével és egyéni fejlődésének megvizsgálásával a mesterséges agyában hozzá hasonló, még értelmesebb és emberibb robotokat lehet majd alkotni. Az űrhajó legénysége, akik Datát barátnak tekintik, persze nem akarnak belemenni. Data

maga is ellenzi a tervet, de nem önféltésből; programja miatt fel sem merül, hogy ne a Csillagflotta érdekében cselekedjen, vagy hogy a sajét létét többre tartsa az emberi parancsnál; egyszerűen nem tartja Maddox képességét elégségesnek, hogy megvalősítsa a tervét és ne csak ok nélkül rongálja meg a Flotta tulajdonát. A kritikus bökkenő ott van, hogy nem lévén jogilag személy, Datának nincs joga akármilyen alapon megtagadni a kérést, és lévén nem közvetlen birtokosai, a legénységnek sem. Illetve talán mégis, legalábbis Picard kapitány szerint, aki ragaszkodik hozzá, hogy szabályos tárgyalást tartsanak annak eldöntésére, hogy Data önálló személy-e, rendelkezik-e azokkal a kritériumokkal, amivel az élő, értelmes jogi személyt definiáljuk, következésképpen megilletik ugyanazok a személyiségi jogok, mint az életének/biztonségának/döntéshozatalának védelme.


Asmimov robot-történeteiben gyakori, hogy az emberek vandál módon megrongálják vagy paranoid módon félnek a robotoktól. Asimov Frankenstein-komplexusnak nevezi azt a jelenséget, amikor az ember retteg a saját teremtményétől és titkon attól tart, hogy az a helyére pályázik. Ironikus módon az e félelem oktalan Asimov unverzumában, mert Asimov robotjai gyárilag képtelenek ilyesmire, agyukban kódolva lévén a Robotika Alaptörvényei (az ember életének/biztonságának védelme és az ember minden utasításának teljesítése).

Persze a robotok végül megtanulják, hogyan járjanak túl a saját programjuk eszén, csak nem úgy, ahogyan azt mindenki elképzeli: mivel két ember utasítása/érdeke gyakran kizárja egymást, a robotok idővel megtanulják az nagyobb emberiség érdekét az egyén biztonsága elé helyezni, és egy másik ember életének védelme érdekében akár ölni is, de továbbra is az ember szolgálatának vágya vezérli őket. (Még a "nulladik törvénnyel" felszerelve is Asimov legtöbb robotszereplője annyira végletesen pacifista, hogy legtöbbjük kvázi öngyilkos lesz (a pozitronagyuk tönkremegy), ha valaki megmentése érdekében ölniük vagy bármilyen kárt okozniuk kell.

2020. febr. 24. 17:26
Hasznos számodra ez a válasz?
 19/23 Wadmalac ***** válasza:
100%

Valóban fel lehet vetni a veszélyes AI gondolatával szemben, hogy mi mennyire leszünk veszélyesek az AI-re.

Mennyire leszünk képesek emberségesen bánni az emberi intelligenciával, tudattal, esetlegesen érzelmekkel rendelkező mesterséges értelemmel.


Ilyenkor mindig eszembe jut az AI film által lefestett szívfájdító jövő, ahol az ember az embertelenebb.

2020. febr. 25. 06:44
Hasznos számodra ez a válasz?
 20/23 anonim ***** válasza:
48%

"Valóban fel lehet vetni a veszélyes AI gondolatával szemben, hogy mi mennyire leszünk veszélyesek az AI-re."


Nem ez a veszély, hanem az, hogy az AI öntudatra ébredhet és személyisége fejlődhet ki, amely lehet jó is és rossz is.

2020. márc. 3. 06:41
Hasznos számodra ez a válasz?
1 2 3

Kapcsolódó kérdések:




Minden jog fenntartva © 2025, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu

A weboldalon megjelenő anyagok nem minősülnek szerkesztői tartalomnak, előzetes ellenőrzésen nem esnek át, az üzemeltető véleményét nem tükrözik.
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!