Kezdőoldal » Számítástechnika » Hardverek » Az Intel videokártyákat...

Az Intel videokártyákat kiknek szánják?

Figyelt kérdés

Megnéztem a legdrágább kártyáját az Intelnek és hát egyszerűen nem értem, hogy miért vannak a piacon. Körülbelül egy irodai gépbe tudnám elképzelni, amit a benchmark alapján tud, de semmiképp sem az AMD vagy NVIDIA ellenfelének.


Körülbelül az NVIDIA 20-as és 30-as széria között tart az Intel teljesítményben. Ennek így mi értelme van, hogy van helyük a piacon? Én értem, hogy olcsó, de egy 20-as NVIDIA-t még olcsóbban lehet használtpiacon venni. Hogyan akarnak ezzel az üzleti modellel a piacon maradni?



szept. 21. 02:23
1 2
 11/14 anonim ***** válasza:
78%

Nem értem kérdező a problémádat. Neked az miért fáj, hogy több szereplő van most videokártya szegmensben? Elvégre ennek inkább örülni kellene, mivel így nagyobb a verseny. Teljesen mindegy milyen kártyákat gyártanak, az ára lényeg. Ha jól árazzák be akkor minden videokártyának (vagy monduk úgy minden terméknek) van létjogosultsága. Minél több a szereplő a piacon, annál nagyobb lesz a verseny.

Én kifejezetten örülük annak, hogy lett még egy komoly szereplője a piacnak, még ha nagy port nem is kavart. De ha sikerül letenniük egy használható, jól árazott, jó teljesítményű alternatívát a mostani AMD/nVidia páros mellé akár csak egyetlen modellel, akkor lehet már megérte belépniük a piacra.

okt. 8. 09:08
Hasznos számodra ez a válasz?
 12/14 A kérdező kommentje:
Nekem az fáj, hogy nem szorongatja meg a piacot uraló két nagy gyártót. Így a létezésük kétséges, hogy mennyi ideig tudnak piacon maradni. Te sem szeretnél olyan videokártyába fektetni, ami 5-7 év múlva lehet, hogy használhatatlan és eladhatatlan lesz, mert kivonulnak a piacról. Aki ezt nem érti meg és vakon hisz benne, hogy talpon tudnak maradni a piac széléből csipegetve, az nem látja át a piac működését. Az egész Intel szériának az lenne az értelme, hogy lenyomja az árakat, ahhoz pedig jót kéne gyártaniuk, nem középszerűt.
okt. 8. 17:47
 13/14 anonim ***** válasza:
100%

Az a baj, hogy fordítva nézed a dolgokat. A gémer/consumer piacot kiszolgáló eszközök azok a szerverhardverek valamilyen derivatívjai, amire utaltak is már csak simán figyelmen kívül hagytad. Nézzük meg talán a processzorokat, azok egyszerűbbek és átláthatóbbak.


Amikor az egyik gyártó pl intel előjön egy új "core-dizájnnal" akkor azt a szerverekhez igazítva teszik, így belekerülnek a magokba számunkra teljesen felesleges funkciók is. Ha végeztek a mag tervezésével, akkor ezt "sokszorosítják" és ezekből épülnek fel a processzorok, az asztaliak 4-8-10 stb míg a szerverprocesszorok 30-50-90 akármennyit kapnak. A lényeg, hogy maga a core-design megegyezik és csak a processzorba épített magok száma és némi extra tekintetében van eltérés.


Az AMD esetében ez most épp még látványosabb: gyártják ész nélkül a 8 magos chipleteket, majd ezeket letesztelik és a kis fogyasztásúak mennek a szerverprocikba, a nagy fogyasztásúak mennek a Ryzenekbe. Egy 96 magos Epycben ugyanolyan chipletek vannak, mint egy 8 magos Ryzen 7-ben, cask előbbiben 12 utóbbiban 1.


A videókártyákkal kb ugyanez a helyzet. Elkészül egy GPU dizájn és annak némileg módosított változatait használják a különböző piacokon. Pl anno voltak a desktop és workstation Radeon Vegák ( GCN 5.0 ) és ezeknek a magoknak a módosított változata lett a szerver compute kártya a CDNA 1-es Radeon Instinct MI100. A wikiről:

"The individual compute units remain highly similar to GCN but with the addition of 4 matrix units per CU. Support for more datatypes were added, with BF16, INT8 and INT4 being added."


Amíg a Radeon Vega64-et 500$-os indulóáron dobták piacra, addig a MI100 6400$-ról indult. Ha nem lett volna GCN akkor sokkal drágább,komplikáltabb lett volna compute kártyát építeni nulláról.


Az nvidia veri most a mezőnyt, de hallottál valaha az nvidia Teslaról? Esetleg a Telsa L40S-ről? Ez gyakorlatilag nem más, mint a soha piacra nem dobott RTX4090Ti felpimpelve 48GB VRAMmal. Potom 10 000 euro körül megveted :D


A sok rizsa után:

"Na már most az Intel érdekelne, hogy ilyen téren mit tud felmutatni?"


Az intel a videókódolás/dekódolás kategóriájában ver mindenkit ( ez még az apple korszakból maradt jó szokásuk ). Az általad is emlegetett A770 16GB-os videókártya kicsit megcsúszott és középkategória lett csak, de ez a modern kori intel első diszkrét videókártyája és mire a drivert összekalapálták végül nem is lett olyan rossz. Mit gondolsz melyik kategóriában fogy a legtöbb videókártya? Bizony, a középkategóriában. Kapsz jobbat használtan? Igen, én is mindig így vásárolok de itt a gyakorin is rengeteg olyat láttunk, hogy a kérdésnél leírják: csak új, nem vesznek használtat...


De, amiért érdekes az A770 az maga a GPU és a baromi jó videóenkóder. A nagyvállalati szférában a virtualizáció ma már nagyon elterjedt dolog és grafikai szempontból ennek két módja van: a gyorsítás nélküli és a hardvergyorsításos. Az előbbi kicsit laggos az utóbbi pedig gyakorlatilag nem más, mint egy sima tömörített videostream ( mint egy youtube vagy twitch live). Az nvidia és AMD megoldásai fizetősek és a licenc nem olcsó. Az intel viszont licencmentesen dobta piacra a saját kártyáit, amik elég kelendőek is lettek. Az egyik ilyen az Intel Data Center GPU Flex 170 ( a másik a 140). Hallottál már róla? Ezen a kártyán ugyanaz a DG2-512 GPU van mint a jelenleg kb 300 euros A770-en, az eltérés hogy ezen több az enkóder és máris 2400 eurot látsz az árcédulán. Mit tud ennyiért? Licencmentesen tud egyszerre 64db 720p30-as VM-et streamelni, vagy 32db 1080p-t vagy 16db 4K-t.

Az a GPU a megfelelő körítéssel ami játékra szerinted sz@r és piacképtelen, az egy szerverbe pattintva kiszolgál 30 munkaállomást és mindezt olcsóbban, mint az nvidia szerverkártyák!


[link]


A ratyi A380-nak is van szerverváltozata a Flex140 valamint készült belőle munkaállomás verzió is Arc Pro A40 és A50 néven. Ami érdekes az az Arc Pro A60. Ez az A770 GPUjának felét kapta, 12GB VRAM, első AV1 enkórder a piacon és fele annyiba került mint az RTX A2000. Játékra nyilván sz@r, azért sem nagyon jöttek az A500-as GPUk, de tartalomkészítésre, munkaállomásba tökéletes. De ha visszaemlékszünk a már említett GCN 5 korszakra, a Vegák megsegítésére átcímkézett az AMD néhány szerverkártyát és piacra dobta, mint Radeon VII. Jó volt? Jó. Verte az RTX2080Ti-t? Nem. Viszont ott ahol az alkalmazás memóriasávszél igényes volt és ki tudta használni a HBM brutál sávszélességét, ott úgy kettéhugyozta a 2080Ti-t, hogy a szemed könnybelábadt. Nem véletlenül végezte mind a bányában... :D


Az Arc Alchemist az első próbálkozás, csúsztak is bőven, a driverek ritka szarok voltak az elején de dolgoznak rajta és ami a legfontosabb: ez sem cska egy gamer kártya lett hanem egy egész termékcsalád a gamer kártyáktól a szerverkártyákig. Az Alchemistnél az is gond volt, hogy régi nodera foglaltak a gyártósoron, így a teljesítmény(hiányához) képest sokat is evett. A Battlemagenél már újabb nodeon jönnek a GPUk és ha minden jól megy akkor tovább kerekedik a termékcsalád és a Battlemage már normális driverekkel érkezik. Az A770 most kényelmesen hozza az RTX3060Ti szintjét, csak kellett másfél év, mire a driverek elkészültek :D


Röviden:ne csak vérpistike szintjén közelítsd meg a dolgot, mert az félrevezető. A te logikád mentén kb az RTX4060-nak sincs semmi értelme, de RTX4060 (AD107) nélkül nem lenne RTX 2000ADA sem 1000+ $-ért. Az RX7600-nak sincs értelme, de ugyanazzal a NAVI33 GPUval gyártott Radeon Pro W7600 több, mint kétszer annyiért került piacra :)

okt. 8. 23:39
Hasznos számodra ez a válasz?
 14/14 anonim ***** válasza:

De kérdező miért baj az hogy a középkategóriát célozza meg egy gyártó? A legtöbb átlag felhasználó is pontosan ebben a szegmensben vásárol, az Intel egyébként pedig régóta jelen van a grafikus gyorsítók piacán, nézd csak meg a Steam hardver felmérést. Ha jól melékszem 7% körüli részesedése van. Kitalálod? Igen, az integrált GPU-t használók teszik ki nagyrészt ezt a 7%-ot, de nyilván megjelennek a dedikált kártyák is.

Miért esne ki a piacról 5-6 éven belül? De ha így is van én pl. 3 évente cserélem a kártyát, most is úgy vagyok vele, hogy a 2 éves kártyám eléggé csere érett mert anno kicsit alálőttem a teljesítmény terén. Hozzáteszem akkoriban (2022) pont a legrosszabb állapotban volt a GPU piac, hiszen minden extrém túlárazott volt (mondjuk szerintem még most is). Egy középkateógirás kártya is 200 ezer Ft, akkor az Intel miért ne célozhatna meg egy 100-150 ezres ár szegmenst?

Vagy te talán minden esetben újonnan vásárolsz aktuális csúcs kártyát? Nekem személy szerint se anyagi lehetőségeim nem engedik meg, hogy 1 milliós kártyát vegyek, se az igényeim nincsenek ilyen szinten. Használtan is pár éves felső kategóriás kártyákat szoktam venni, pl. sokáig GTX 980-at nyúztam, ami egy 10 éves, eredetileg felső kategória körül induló cucc volt.

haverom talán 1 éve állt át egy GTX1080Ti-re, amely 2017 körül volt csúcs kártya, de mostanra lett elfogadható használt ára.

okt. 9. 05:53
Hasznos számodra ez a válasz?
1 2

Kapcsolódó kérdések:




Minden jog fenntartva © 2025, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu

A weboldalon megjelenő anyagok nem minősülnek szerkesztői tartalomnak, előzetes ellenőrzésen nem esnek át, az üzemeltető véleményét nem tükrözik.
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!