Hogyan célszerű nekiállni GPU-t programozni tanulni?
Van tapsztalatom rengeteg programozási nyelvvel, C-től kezdve script nyelveken (Ruby, Python, Perl) át egészen funkcionális nyelvekig (Haskell, Erlang, Elm), amiket mostanában nagyon megkedveltem.
A kérdésem igazából arra vonatkozik, hogy van-e olyan könyv, vagy tutorial, esetleg video anyag, amivel a leggyorsabban haladhatnék GPU programozás területén. Mit ajánlanátok egy a témában teljesen kezdőnek?
És van-e valami, amit szerintetek érdemes elkerülni, mert zsákutca, és csak felesleges köröket fut vele az ember?
Különösen érdekelne, hogy a funkcionális programozás (ami most a nagy kedvencem) itt mennyire alkalmazható? Gondolom semennyire, és vissza kell térnem a for ciklusokhoz...
NVidia-ra ott a CUDA, a többire pedig OpenCL.
Ha te akarsz kernelt írni akkor mindenképp érdemes beleáskálódni a GPU architektúrájába. Illik tudni, hogy hány magot használsz és mikor melyik memóriát.
Ha nem érdekel ennyire részletesen akkor használhatsz egy akármilyen programozási nyelvet (pl. python) aminek csak elég jelezni, hogy te GPU-n akarod futtatni a kódot és ő megcsinál mindent a háttérben.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!