Az AMD miért nem fejleszt "Ray-tracing" videokarikat?
Ismert, hogy a videokártyák terén az AMD mindenben veri az NVIDIÁ-t. Szerkesztés, programozás terén is. A gaming piacon is azt mondja mindenki, hogy az AMD jobb kártyákat gyárt az NVIDÁé-nál. Értem ez alatt, hogy több VRAM-ot tartalmaznak és kezdetektől fogva aszinkron achitektúrásak.Erősebb egy AMD kártya.
Viszont azt nem értem, miért nem fejleszt sugárkövető videokarikat az AMD ? A sugárkövetés terén az RTX-ek viszik a pálmát és a legtöbb gamer NVIDI-ás kártyát vesz. Miért ?
az AMD high-end szériában csak kullog az NVIDIA után
mind hardver, mint szoftver, mind technológia téren
nem tudja lenyomni a versenytársát
az Intelt egyenlőre letudta nyomni bizonyos téren, de pl szerverekbe nem véletlen nem raknak AMD-t
szóval ha nem kényelmesedett volna el az Intel, az AMD nem tudta volna így lenyomni hirtelen
az RTX technológia még nagyon új, lehet létjogosultsága sem lesz, hisz eddig sem hiányzott annyira ez a dolog a világból, majd kiderül mi lesz vele, még a beköszönő szintnél járunk
minden cég fejlesztgeti a maga technológiáját, aztán kiderül melyik mit ér, vagy ér e bármit is a piacon
mellé tenném, nekem 11GB-os 1080Ti-om van és a 11GB-ot SOHA nem tudom kihasználni gamingnél, játékfejlesztésnél ráoptimalizált cuccokkal meg főleg nem
max ha hash-t törnék vagy valami, akkor tudnám kihasználni
nem véletlen elég a 3-6GB-os kártya még manapság is, szóval a több VRAM-nak nincs annyira nagy haszna, mint gondolnád
Fejlesztenek, része a GPUOpen kezdeményezésüknek - RadeonRays néven elérhető évek óta(és függetlenül attól, hogy mit sugall a neve teljesen nyílt, fut mindenen). Az nvidia piacra dobott egy technológiát amit szarrá hypeoltak holott még hosszú évekig semmire sem lesz jó, ennyi történt. 2 konzolgeneráció és lesz annyi erőforrás hogy legyen értelme valósidejű raytracingről beszélni, addigra nem csak az amd nek, de az intelnek is lesz erre alkalmas kártyája. Nem tudom kitől hallottad hogy jobbak lennének, 2013 körül voltak utoljára egy szinten(R9 290, és az is csak hozta a 780Ti szintjét - sokkal olcsóbban az tény, de nem volt erősebb), azóta le vannak maradva egy generációval teljesítmény szempontjából, és habár a fogyasztást már megoldották sokáig azzal is elég sok gond volt. Kimondottan erősebbek meg nem is tudom már mikor voltak utoljára(azonos szegmensben nagyon ritkán ad jobb kártyát az nvidia, de hosszú évek óta az övék mindig a leggyorsabb(meg többnyire a második\harmadik leggyorsabb is)).
#1 a 11GB(vagy a 12(2080Ti)ha már itt tartunk) nem elég ha 4k lightmapet akarsz unity ben számolni, ilyen esetekben vagy VII vagy méregdrága quadro t kell venned. Játékra ezekhez a kártyákhoz nyilván túlzás, de az nem igaz hogy "nem tudod kihasználni", egy apró játékot raktam össze a nyáron(~egyedül, pár hónap alatt) és a vram limit miatt 2k felett 40-42 percről 19 órára ugrott a bake, egy nagyobb jelenetnél inkább bele sem gondolok. Azért elég manapság a 3-6Gb(habár a 3 ma már mire elég? 1080p ben már a 4 is nagyon karcolja minimum határt) kártya mert a játékokat elsősorban konzolokhoz, másodsorban meg a középkategóriás gpu k hoz tervezik, nem a 3 százalékhoz akik 11-16GB vramos kártyákat vettek az elmúlt években. A szerverekkel kapcsolatban is érdekes a teóriád, folyamatosan nő az amd részesedése a szerverpiacon, epyc a szart is kirugdosta a xeonokból, a második generációból konkrétan egy erősebb mint a legdrágább dual-xeon konfig(és mellé nem csak hogy jóval olcsóbb, a fogyasztása is sokkal alacsonyabb) - még avx512 alatt is lenyomta, nem is verseny, szó szerint nincs olyan szituáció ma ahol bármelyik xeon jobb vétel lenne. Szerverfronton sokkal jobban áll a szénájuk mint desktopon, és ott is vígan elvannak.
Köszi!
Nem is tudtam, hogy még nem is támogatják a játékok. Én játszok world of tankssal és csodálkozok, hogy ugyanúgy néz ki egy sima GTX-es gameplay mint egy RTX-es.
Nagyon egyszerű. Ez egy kísérleti technológia. Csak gondolj bele abba, hogy ha éppen nem használsz RT-t, akkor a szilícium fele nem csinál semmit és te fizettél ezért. És ha véletlenül használod is, akkor pedig szépen felezi az FPS-edet és az RTX2060-adból csinál egy GTX1050 Ti-t. Kell ez bárkinek?
(az elvakult fanboyokon kívül)
Az az állítás, hogy egy AMD kártya erősebb, mint egy Nvidia helytelen. Mindkettő cégnek a kezében van a saját GPU architektúrája és olyan chipeket készítenek rajta, amilyeneket akarnak. És annyiért adják, amennyiért akarják.
Arról, hogy többen vesznek Nvidiát, érdekes tapasztalataim vannak. Bárhol, bárhova megyek és ki van állítva egy PC, mindegy, hogy milyen legyen, messziről virít, hogy Intel és Nvidia van benne. És mit lát a laikus? Azt, hogy az a jó és gondolkodás nélkül beteszi a kosárba. Olyat is láttam már, hogy egy elvileg hozzáértő ember nem tudott arról, hogy az AMD egyáltalán gyárt VGA-t.
Rtx-et gondolom azért vesznek, mert abban vannak külön videófeldolgozásra való magok.
Az AMD ár/érték arányban jobb, nem egy az egyben mindenben jobb.
3
Az összképet nézd. hiába jobb az amd, eddig még csak a desktop kategóriában került egy szintre az intellel.
Az intelnek még van kb 2 éve, hogy javítson. Na utána lesznek gondok, ha nem jön össze.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!