Akkor itt a vége, ugye?
Az AI előretöréséről és annak hatásairól beszélgettem ismerősökkel. Szakmabeliekkel és kivülállókkal egyaránt. Azt állapítottuk meg, hogy bárki bármit is állít, az AI bizony felforgatja az iparágat és elveszi a kenyeret a fejlesztők többségétől. Ha ma nem is, holnap egészen biztosan.
Már a chatGPT is képes egy lépésben, 3-400 sornyi, kifogástalan kód generálására, a képgenerátorok meg aztán minden várakozást, képzeletet felülmúlnak.
Én csak az egyetemi éveiket taposókat sajnálom. Nekik nem lesz könnyű megemészteni azt amivel maholnap szembe kell nézniük.
A kérdésem az, ki mihez kezd az itt megfordulók közül a jövőben?
Átképzésben, profilváltásban gondolkodik-e valaki?
Milyen tartalmú licenszük van azoknak a kódsoroknak, amiket te az én kérésdemre generálsz?
"Az általam generált programkódoknak nincs semmiféle licensze. Azok a kódok, amelyeket generálok, általában egyszerű példák vagy válaszok a te kérdéseidre, és azokat a te saját projektedben vagy felhasználásodra szánom.
Ezeket a kódokat bármilyen célra felhasználhatod saját projekteidben vagy tanulás céljából."
Tehát, ami programkódot, vagy kódrészletet generálsz, azt én akár kereskedelmi termékben is felhasználhatom?
"Igen. Az általam generált kódok és kódrészletek szabadon felhasználhatók saját projektekben, tanulás céljából vagy egyéb személyes és üzleti célokra."
A képgenerálós AI-ról annyit, hogy pár napja próbáltunk egy adott Assestet legenerálni, de nem nagyon értette mit akarunk és elég bizarr dolgokat generált.
Én azt láttam igen elég sokat fejlődött, de még eléggé gyerekcipőben jár. Még sokat kell tanulnia. Persze karaktert, hangokat és sok dolgot már elég jól tud, de még nem mindent.
Akkor egy kis olvasni való: [link]
Csak néhány részlet: "And ChatGPT didn’t warn me about this. I guessed that maybe ChatGPT only knew about v2 since it was trained on open-source code from before September 2021 (its knowledge cutoff date) "
Ugyan nem szeretem ha valaki csak böfög és nem olvas de még egy érdekes releváns cikk a témába:
Fejezd már be mert könnyesre röhögöm magam.
Te olyan nulla vagy ehhez ez egészhez, hogy az már nekem kezd el fájni.
A magyar, olasz, angol, stb nyelvre sem úgy tanították fel a chatgpt-t, hogy komplett mondatokat nyelt be és büfög vissza, hanem a nyelv szabályrendszerét tanulta meg. Ez olykor látszik is egy egy hibás ragozásnál, félre sikerült mondatszerkezetnél. Na, így van ez a programozással, a programozási nyelvekkel is. Ne képzeld már a buta fejeddel, hogy a chatgpt majd keres valami kódbázisban egy quick sort vagy egy inorder fabejárás implementációt adott nyelven és azt tálalja a kérdezőnek. Ennyire kretén, ennyire reménytelenül ostoba még te sem lehetsz.
Szóval mégegyszer, ha az első válaszom indokolatlanul töröltétek:
Hosszú távon igen, és szerintem majd komoly versengés lesz az állásokárt, rövid távon (4-5 év), max. 10-15% lesz a leépítés.
És ez is főleg bizonyos munkakörökben, mint pl. az IT support, vagy nagyon junioroknál.
Sajnos én egyelőre ebbe a 10-15%-ba tartozom, mert
- IT customer supportos vagyok és csak közel 2 év tapasztalattal (bár nemrég "előléptettek" L2-vé", úgy hogy közben szinte teljesen ua. csinálom :D)
- átképzett vagyok, amit a 9-es is említett, bár szerencsére STEM háttérrel (az már más kérdés, hogy az egyik leghasználhatatlanabb STEM diplomám van)
A másik kérdésedre válaszolva, mivel infós diplomára egyelőre nincs időm, sem pénzem, annyit tudok tenni, hogy tanulok ezerrel, hamarosan CCNA-t teszek, utána egyből haladok tovább CCNP-re, és készülök egy Linuxos certre is.
Gondolkoztam kétkezi szakmán is, de egyelőre még nem szeretnék váltani. Takarékoskodok a pénzzel, probálok szakmailag fejlődni, és reménykedem, hogy ne legyek a leépítések első körében.
A nyelvi modellek, mint például a GPT-3.5, mély tanulási algoritmusokon alapulnak, amelyek képesek natív nyelvfeldolgozásra és generálásra. Ezek a modellek az emberi nyelvstatisztikák, minták és szabályok elemzésére épülnek. Itt van egy általános áttekintés arról, hogyan működnek:
Adatbetanítás: A nyelvi modellek betanításához óriási mennyiségű szövegre van szükség. A GPT-3.5 esetében például több terabyte szöveg állt rendelkezésre a betanításhoz. Ezek a szövegek tartalmaznak mindenféle információt, például könyveket, cikkeket, weboldalakat, fórumokat és még sok mást.
Mély tanulás: A modellek mély tanulási hálózatokból állnak, például transzformátor hálózatokból. Ezek a hálózatok rétegekből állnak, amelyek egymás után dolgozzák fel a bemeneti szöveget. Minden réteg saját súlyokkal rendelkezik, amelyeket a betanítás során finomhangolnak.
Bemenet reprezentáció: A bemeneti szöveg először számok sorozataként van reprezentálva, amelyeket a modell könnyen feldolgozhat. Ezt a folyamatot általában tokenizációnak hívják. Például egy mondatot tokenekre, szavakra vagy akár karakterekre oszthatnak fel.
Kimeneti generálás: A modell az input alapján képes generálni szöveget. A mély tanulási hálózatokban a rejtett állapotok (hidden states) átadják az előző rétegtől az újra létrehozott szövegeket.
Finomhangolás: A modelleket általában először általános szöveggenerációhoz használják, majd finomhangolják specifikus feladatokra. Ez a finomhangolás magában foglalja a modell súlyainak módosítását az adott feladathoz, például kérdések és válaszok generálásához vagy nyelvi fordításhoz.
Inferencia: Miután a modell finomhangolt, alkalmazható valós idejű bemenetekre. A modell inferencia során képes generálni válaszokat, javaslatokat vagy bármilyen nyelvi feladatot végrehajtani a beérkező bemenetek alapján.
További kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!