A nagy nyelvi modellek első lépésként egy embedding-et (szóbeágyazást alkalmaznak), tipikusan monsjuk egy 300 dimenziós vektortérbe. Mi alapján optimalizálják ezt a dimenziószámot adott korpusz esetében?
Figyelt kérdés
Azt tudom, hogy a beágyazást hogyan tanulja meg egy neuronháló, de hogyan döntik el, hogy a 300 dimenzió a legalkalmasabb és mondjuk jobb, mint a 310 dimenzió. Milyen szempontok játszanak itt szerepet?2023. dec. 12. 21:56
1/2 anonim válasza:
Alapvetően az ár, és a megvalósíthatóság. A dimenzió szám növelése jelentősen növeli a szükséges hardver árát. És kell húzni egy határt ahol már az eredmény várhatóan megfelelő, és nem lesz nagyon drága (vagy nagyon lassú).
2/2 A kérdező kommentje:
Biztos nem ez a válasz.
2023. dec. 14. 10:07
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
A weboldalon megjelenő anyagok nem minősülnek szerkesztői tartalomnak, előzetes ellenőrzésen nem esnek át, az üzemeltető véleményét nem tükrözik.
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!