Miért nem nyitnak a Peer-to-Peer megoldások felé a nagy internetes vállalatok?
Pl. ott a google-nak az android, miért nem készítenek bele egy olyan funkciót, hogy minden eszköz amin android van, az eszköz tárhelyének pl. az 5%-át lefoglalná valamilyen nagy peer-to-peer hálózatba?
Így nem kellene nekik több száz hektárnyi területekre hatalmas adatközpontokat építeniük.
Az olyan dolgok amik nem CPU igényesek mint pl a google drive szerintem simán mehetne egy ilyen hálózatról.
Ez nem megvalósítható vagy miért nem csinálnak ilyeneket? (nem akarok belepofázni a dolgaikba meg nem is vagyok szakértő ezen a téren csak szimplán érdekel)
szóval azt mondod, hogy bárki adatait tárolnád a nagyvilágból? és mi van ha az vírus? vagy meghal a telód? vagy nem vagy elérhető? ...
a P2P-nek ilyen téren nincs sok értelme, a bitcoin és hasonló technológiák is arra épültek, hogy az embereknél van a validálás kulcsa mondhatni (nagyon leegyszerűsítve), de ott messze nem ilyen adatmennyiségről beszélünk
vannak bizonyos területek ahol használható és van ahol nem, vagy inkább csak körülményesen
GDPR kapásból elvárja, hogy egy adatkezelőnek tudnia kell, hogy az általa kezelt személyes adatot hol és meddig tárolják, ki férhet hozzá és milyen jogosultsági szint mellett, és kérésre ezt az információt képes legyen közölni. Ja, meg az adat lehetőleg ne menjen ki az EU-n kívülre, ha nem muszáj.
Ezeket rögtön keresztülvágja egy decentralizált adattárolási modell, ahol fogalmad sincs, hogy kinél van az adat, ki és hogyan fér hozzá, mennyire biztonságos ezek tárolása és hogyan gondoskodsz a biztonsági mentésről.
Másrészt a P2P csak akkor életképes, ha él a kapcsolat. Ha én kiadom a gépem tárhelyének 10 százalékát, hogy oda valaki adatot helyezhessen el, mi van akkor, ha én fogom és nem kapcsolom be többet a gépet, vagy önkényesen törlöm, formázom a kiadott tárhelyet amin más adata van parkolva? Hogy fér hozzá, hogy szerzi vissza? Én, mint magánszemély adok neki garanciát vagy jogi felelősséget bármire is? Nyilván nem. Ezért vannak szerverközpontok, ezért a szolgáltató felel az adatért, rendelkezésre állásért meg mindenért.
Nem csak egyhelyen tárolná a rendszer a fájlokat hanem mondjuk 10 példányban és ha 1 példány az-az eszköz kiesik a hálózatból akkor ott van még másik 9 és kipótolná +1-el, hogy mindig meglegyen a 10 példány.
Tudom, hogy ez már helyigényesebb lenne de akkor is az esély arra, hogy 10 eszköz egyszerre legyen inaktív szinte esélytelen főleg ha földrajzilag is szétvan szórva ez a 10 eszköz.
Az adatok titkosítását meg nem hiszem, hogy pont a google-nak nehezére esne megvalósítani.
Én biztosan nem járulnék hozzá, hogy vadidegenek adatai foglalják a helyet a lemezemen. Sem ahhoz, hogy személyes dokumentumaim vagy munkahelyi fájljaim mások eszközein is megtalálható legyen.
A p2p-nek megvannak a használati módjai, amit nagyon jól ki is aknáznak (windows update, backup szoftverek pl.).
Hát a fő kérdés pont arról szólt, hogy mennyire felesleges a szerverpark (ahol csak 1 példányban (+backup) van tárolva az adat). Erre neked az a megoldás, hogy legyen 10 példányban tárolva ugyanannyi adat. Ez minden, csak nem gazdaságos, mert akkor tízszer annyi tárhely kellene, mint most van.
Egy Google szintű szervezet tárolási mennyisége petabyte-okban mérhető, és ez csak egyszeres mennyiség. Tízszer ennyit nem tudsz elosztani otthoni PC-ken meg mobilokon, és értelme sem lenne. Azért van a szerverpark, hogy ott legyen az adat, és ne százmillió készüléken szétszórva több milliárd darabban, ami ki tudja hogy épp mikor fog kiesni, vagy épp honnan kell a darabokat összeszedni.
@12:42
Az nekem is eszembe jutott, de ott ez csak egy alibi, az valójában egy pénznyelő piramisjáték.
Kiemelve a cikkből "Vírust kapnak mellé?" bekeretezett rész. Illetve a hozzászóló "szóval azt mondod, hogy bárki adatait tárolnád a nagyvilágból? és mi van ha az vírus?"
Ehhez az is kéne hogy titkosítatlanul legyen tárolva simán. Még sima csak oktatási céllal javasolt rot 13-ban titkosított, ami az időben jó volt régen az olyan ellenség ellen akik írni olvasni se tudtak. Már ez a rot 13-ban enkódolva is jó arra hogy vírust tárolj biztonságban. Meg egyébként is csak adott körülmények között működik meg jelent veszély bármely vírus.
@13:12
Az egész rendszer stabilitására nem is gondoltál? Mennyire lenne gyors? Mennyire ingadozna a sebessége? Plusz még a titkosítás is ott van. Az is milyen szinten kéne nem mindegy. Az illetőt is el kell e rejteni a másik elől hogy hol van egyáltalán, hogy ne tudjon következetni arra se hogy milyen országbeli? Akkor ez már egy alternatív tor hálózat. Ha van valami visszaélés akkor a google hogy követi vissza, ha hatóságilag kérik? Hiszen egy P2P hálózat ahol az adatok nem a google szerverein keresztül mennek át. Meg ekkor kell lenni legalább egy felhasználónévnek jelszónak a hozzáféréshez mely alapján megy a kódolás, enkódolás. Mi van akkor ha ezt elfelejtetted? A készüléked se tudja? Mi van akkor ha más is megtudja? Akkor hozzáférhet az adataidhoz. Meg hogy megoldott a jelszócsere? A titkosítás egy ilyen elosztott p2p hálózatban vagy jelszóval vagy egy vagy több kulcsfájllal, vagy ezek keverékével lehet. Vagy hardveres kulccsal, de az meg lényegében egy vagy több kulcsfájllal rendelkező célhardver. Mi van akkor ha ezt elhagyja valaki? Nincs olyan hogy jelszót vagy kulcsot cserélek és kész meg van oldva. Akkor a meglévő adataidat újra kéne titkosítani, az új jelszó vagy kulcs stb. alapján. Ehhez ismerni kéne a régi hozzáférési jelszót stb. Hiszen itt szétszórva vannak az adataid, a megfellő kulcsok stb birtokában lehet hozzáférni. Szóval magyarul buktad az adataidat ez esetben. Ha meg tudod a régi jelszavad, de meg akarod változtatni akkor ennek függvényében újra kéne kódolni a régi kódolt adataidat. Hiszen ez az egész nagyon leegyszerűsítve offline változatba az ha én magamat nem titkolom előtted csak az adataimat, akkor én elmegyek hozzád és adok egy usb-s HDD-t hogyha leégne a házam vagy árvíz lenne vagy földrengés vagy rablók elvinnének mindnet nálam, akkor nálad legyen biztonsági másolat. Ezért titkosított rar-ba adnám oda azon a HDD-n. Ha új jelszót akarok akkor értelem szerűen újra kell titkosítanom. Ha elfelejtem a jelszót akkor így jártam stb. Visszatérve az online ötlethez lehetne online jelszó (ami van is), kulcstároló is a google-nél, de a többi része akkor is ott van, hogy pl hogy lenne ellenőrizve ha valaki jogtalanul hozzáférne? Meg ha jelszót változtatsz akkor addig nem férsz hozzá még át nem kódolta az egészet? Millió meg millió kérdés, újabb problémák. Meg írtad hogy mennyi az esélye hogy 10 készülékből nem elérhető 1 sem. Nézzük máshonnan a kérdést. Mennyi az esélye hogy minden esetben úgy meglesznek az adatok minden felhasználónál mint most? Ha van több milliárd felhasználóval rendelkező ilyen rendszer. Meg 10 készülékből mennyi van mobilneten? Mindet kényszerítenéd hogy e miatt nőjön a mobilnetes adatforgalma? Külön fizetnél a szolgáltatóknak világszerte hogy ezt ne számítsa bele az adatkorlátba? Meg még meg annyi kérdést tudnék írni. Az egyik legjobb dolgot a végére hagytam. Nem rég 50.-ik születésnapját ünnepelték az internetnek. Olyan nagyra nőtt a világháló amire nem számítottak a tervezői. Elfogyóba vannak az ip címek. Az ip címtartományok kiosztása se épp a legoptimálisabbra sikerült. Így vannak olyan készülékek melyeknek nincs külső ip címe, de még így is elbírja a hálózat mert NAT-olással megoldható hogy több eszköz legyen mint külső ip cím, csak más eszközök terhérte lehetnek így újabb eszközök a neten. A TCP/IP protokoll alapján működik az internet. Ahol mindig van szerver és van kliens. Az más kérdés hogy hatékonyság szempontjából jobb ha több a klines mint a szerver. A P2P esetén szerver és klines módba is visselkedhet egy node, nincs kitüntetett szerverközpontja. Szerver módhoz legalább egy portot kell nyitni és publikus ip-vel kell rendelkezni. Illetve a hozzáférésnél akkor azt a portot kell nyitni amit használna szerver módba, amit aztán más nemigen használhat portot, ha több előfizetőnek ugyanaz az ip-je (az ip címek számának szűkössége miatt összevonogatnak így) Tudom lehet portot bind-elni, de az meg megint nem úgy megy, akkor ahhoz megint kell egy szerver módba valami amihez bemennek a lokális hálózaton a kérések és az meg bind-eli a portot. Vagy egy processz is működhet így, mint egy webszerver hogy egyszerre több klinest kiszolgál.
összefoglalva: egy ilyen megoldás több problémát generálna mint hasznot
:D
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!