Én az alapoknál kezdeném. Miért nem szabad az ssd-t töredezettségmentesíteni?
Ha az alapoknál akarod kezdeni, akkor először kezd ott, hogy hogy működik az SSD!
Egyrészt nincs értelme mentesíteni, mert gyakorlatilag minden cellát ugyan olyan gyorsan ér el a rendszer, így tök mindegy hogy egy adat egymás mellett van-e v. a lemez másik felén. (HDD-nél ez nem így van)
Másrészt az SSD celláinak írása korlátozott. A mentesítés során gyakorlatilag az adatokat átírod egyik helyről a másikra.
Így "eggyel" csökkented a lehetséges írások számát, ezzel az élettartamot és gyakorlatilag nem kapsz érte semmit.
szabad, de nem érdemes, mert az ssd elhasználódási ideje egyenes arányban áll az ssd-re írási mennyiségel.
A töredezettségmentesítés feleslegesen írná újra (áthelyezné) ugyanazokat az adatokat amik már az ssd-n vannak.
Működési mechanizmusából adódóan más a kettő.
A HDD korongokon helyezi el az adatokat.
Az elején még szépen sorban pakolja a korong belsejétől kifelé haladva, de ahogy használod a gépet(törölsz, másolsz, áthelyezel, stb.) egy idő után össze-vissza férnek csak el a dolgok.
Ilyenkor ha valamit be akarsz olvasni, és a darabkái össze-vissza vannak a lemezen, az olvasófej oda-vissza ugrál rajta. Ez egyrészt lassulást okoz, másrészt a hangos berregés is idegesítő tud lenni.
Ezért találták ki a HDD-khez a töredezettségmentesítést, ami a fájlok összetartozó darabkáit fizikailag is egymás mellé helyezi a lemezen.
Egy egy sok időt megélt windows rendszeren akár komoly gyorsulást is hozhat.
Az SSD-knél viszont nincs mozgó alkatrész. Gyakorlatilag egy nagy méretű, de a rendszermemóriánál sokkal lassabb memória. A sebességet tekintve teljesen mindegy, hogy melyik memóriacellájába kerül az adat, bárhonnan ugyanolyan sebességgel tudja kiolvasni.
Viszont van egy hátránya, hogy minden memóriacellájának korlátozott az az írási/olvasási mennyisége, amit elvisel. Ezért ha az SSD-n is úgy tárolnánk az adatokat, mint a HDD-n, hogy elkezdjük az elejétől írni, és haladunk a vége felé, akkor az elején lévő memóriacellák nagyon gyorsan tönkre mennének, a végén meg ott maradnának kihasználatlanul.
Az SSD nem is törekszik arra, hogy sorban legyenek az adatok. SŐT!!! Az SSD éppen hogy szándékosan azokra a memóriacellákra ír, amik korábban a legkevésbé voltak használva. Így biztosítva, hogy a legtöbb cella működésképes maradjon, amíg az SSD meg nem érik a cserére.
Ha logikusan végig gondolod a fentebb írtakat, rájössz, hogy a töredezettségmentesítés több oldalról is árt az SSD-knek. És semmiféle haszonnal nem jár. Csak a HDD-knél volt rá szükség.
ui.: Ha windows8, vagy újabb rendszert használsz, automatikusan beállítja azokat a paramétereket, amik az SSD élettartamát meghosszabbítják (pl. kikapcsolja a töredezettségmentesítést)
1 dologról még nem volt szó vagy elkerülte a figyelmem. Mégpedig az hogy az ssd törekszik arra hogy a cellák egyszerre használódjanak el, ennek érdekében ha üresjárat van akkor elkezdi pakolgatni ide oda a rajtalévő adatokat.
wear leveling címszó alatt lehet olvasni a dologról amásodik oldalon
Na azért tud jelentős sebesség gyorsulást okozni HDD esetén a DEFRAG, viszont azért nem veszed észre, mert az oprendszer a háttérben azért igyekszik alacsony töredezettségi szinten tartani, illetve időnként lefuttatja magának amikor épp nem vagy a gép előtt.
Viszont ha letöltesz egyszerre több, nagy méretű filet torrentről (bár ilyet szerintem senki nem csinál ;-) úgy hogy nem foglaltatod le előre a file helyét akkor elképesztő mód szét tudja szórni és akkor csak kerreg a HDD. Bár a nagy méretű cache-ek ezt elég jól kiküszöbölik, de ha 2-3 processz is hasznája a HDD_t akkor be tud zuhanni, főleg ha már nincs sok szabad hely a HDD-n.
SSD esetén a wear leveling nyilván algoritmus függő, de a logika azt diktálja ha egy blokk írás száma meghalad egy adott számot, akkor a következő íráskor simán irányítsa át egy alacsony írásszámot regisztrált blokkra és az ott található adatot (ha van) akkor pedig írja át, az eredeti címzés helyére. Így némi kísérletezésen alapuló optimalizációval többé kevésbé egyszerre használódnak a blokkok, és az átírás száma is minimalizálható. Lassulást ez nagyon nem fog okozni, mert a visszaírást csinálhatja holtidőben is, mivel az már nem sebesség kritikus művelet, illetve mivel viszonylag ritkán következik be (intel szerint 10%) ezért nagyméretű adatok írásakor is (amikor nem fér a cache-be) csak ennyi lesz az írási sebesség csökkenése. Tehát ez nem hogy töredezettség mentesít, hanem pont hogy jól szétszórja az adatokat a fizikai valójuktól, de ez az SSD esetén nem lényeges.
Csak még egy apróságot tennék hozzá a fentiekhez, a fájlrendszer töredezése (fregmentáció), mint jelenség fájlrendeszer és operációs rendszer függő is.
A DOS-ból örökölt öreg FAT16 és ennek a kiterjesztése a FAT32 még egyszerűek voltak "mint a malomkő" tehát nem fordítottak hangsúlyt az ilyesmire a tervezésüknél, és az akkori rendeszerekben a HDD elérése is sokkal egyszerűbben huzalozott volt. Továbbá az akkori adatmennyiségek és tárolóméretek miatt nem jelentett nagy gondot a rendszeres töredezettségmentesítés szükésgessége.
Az Windows rendszereknél az NTFS megalkotásánál tudtommal próbálták figyelembe venni ezt a szempontot is, bár sajnos nem jártak sikerrel.
Ami a Linux-ot illeti, az ext3 fájlrendszernél, nagyjából sikerült elérni a célt, hogy a töredezettség ne jelentkezzen érdemben, és hosszú távon se jelentsen gondot. Ugyanakkor a továbbfejlesztett ext4 fájlerndszernél már kevesebb hangsúly lehetett a töredezettségen a tervezésnél, feltehetőleg az SSD-k várható térhódítása miatt - ahol a probléma fel sem merül.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!