Hogyan határozható meg egy implementált algoritmus tényleges futási ideje minél pontosabban?
Figy, mivel a modern op. rendszerek multitaszking rendszerek, és általában jóval több process/szál fut egyszerre, mint ahány magja van a procinak, olyan nincs, hogy a többi folyamat nem befolyásolja az algoritmusod futási idejét. Ezért az ilyesmit nem úgy szokták csinálni, hogy lefuttatják 1x, megmérik, oszt jó'van, hanem lefuttatják mondjuk 100x, és átlagot számolnak.
Illetve van egy olyan opció, hogy felraksz szépen egy DOS-t, ott nincsenek háttérben futó folyamatok, és ott megméred :D
Egyébiránt mire kell ez neked? Mert algoritmusok futási idejét ritkán szokták konkrét időintervallumban megadni, alapból ugye a bemenetek különbsége befolyásolja, hogy milyen gyorsan fut le.. Pl. rendező alg. 10 elemre tök más idő alatt fut le, mint 10000 elemre.
Ezért inkább osztályokba sorolják az algoritmusokat, és olyanokat mondanak, hogy konstans futási idejű, lineáris futási idejű, négyzetes, exponenciális, stb.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!