Elosztott kapacitás. Működhet?
Volt az a bizonyos SETI @ home. Ma meg van ez a cloud computing, ami nem csak divatos, de hatékony is.
Arra gondoltam, mi lenne, ha magánemberek összeállnának és a saját gépük számítási kapacitásait kiajánlanák? Amit meg lehetne vásárolni. A bevétel pedig osztódna. Szerintetek életképes ez az ötlet? Esetleg van/lenne valami hátránya?
18
Azért kérdeztem, hogy ki használná mert ismerni kell a célközönséget, mit várnak el, mi kell nekik. Úgy lehet betörni egy adott piacra, ha valamiben jobb vagy, minta versenytársak, különben miért választanának téged, ugyebár. Ezeket fontos mérlegelni, mielőtt nekikezdesz egy cég alapításnak.
Egyébként cégek esetében vannak előírások a felhasználók adatainak kezelésére. Ez ugyan technikai probléma, de ebben az esetben ez hogy lenne megoldva, hogy minden szolgáltató betartsa?
A kérdéssel kapcsolatban pedig, vannak akik komolyan vették és hasznos dolgokat kérdeztek vissza. Őket miért kell lepontozni? Erre nincs igen/nem válasz, aki tutira megmondja, hogy működhet-e. Technikailag persze igen, de a kérdés gondolom üzleti volt, ott a piac felmérése az első lépés
"Az ügyfelet egy dolog érdekli, hogy a számítási eredményekhez hozzájusson és minél olcsóbban. "
És mivel a magánemberek gépei megbízhatatlanok, ezért jelentős túlméretezést igényelnek - az IBM gépszörnyetegei meg - a különböző biztonsági megoldásoknak hála - nem.
"Az, hogy a várt eredményeket jövő héten pénteken, vagy csak az utána levő hét keddjén kapja meg, az esetek többségében másodlagos dolog."
Nem. Az idő pénz és versenyelőny.
"mondjuk 7000 kliens gépéből soha nem esik ki az összes."
Csak bizonyos százaléka, amiért egy szerverfarmot üzemeltető már harakirit követett el volna a kiesett számítási kapacitás miatt.
"nem kell 99.9 %-os rendelkezésre állás, minek is kéne? láne, ha van helyette 100 %?"
Csak egy magánember dzsunka PC-jének nincs ekkora rendelkezésre állása, mert nincsenek benne azok a biztonsági mechanizmusok, amik egy szervernél megvannak.
A #16 leírta neked a lényeget, ez pedig a rendelkezésre állás.
Kis ügyfelekből nem lesz ez életképes modell SOHA, mert ők nem fizetnek annyit, hogy megtérüljön a befektetés (kellene egy jó fejlesztői csapat és egy kiválóan menedzselt PR, mivel ez az egész ötlet nagyban függ a felhasználók számától, ez pedig rohadt drága lenne), szóval muszáj lenne nagyobb cégeket levadászni. De a nagyobb cégeket meg nagyon is érdekli a rendelkezésre állás, sőt, ez egy kritikus pont nekik.
Persze egy microsoft megtudná ezt valósítani és eladni nagyobb cégeknek, sőt, lehet hogy meg is érné megcsinálni, csak ott kezdődik a probléma, hogy nem nekik érné meg, hanem a felhasználóknak. Minek csináljanak olyat, ami kiesést okozna a bevételükben? Ha pedig megérné a microsoftnak is ez, akkor hidd el megcsinálták volna.
Teljesen jogos a kérdésed, csak itt azt kell látni, hogy egy ötlet nem ér semmit sem, az ugyan olyan, mintha a nulláról indulnál. Ha pedig van pénzed, akkor pedig szakemberekkel ki tudod számoltattni, hogy megéri m-e ez az ötlet. Feltételezem az olyan cégek, mint apple vagy microsoft biztos csinált ilyet.
Na most pedig egy kis szakmai írást is tartok, mert gondolom biztos okosabb vagy egy szakmabelinél és nem technikai írásba azonnal belekötsz majd..:)
Szóval oké, van nagy számítási kapacitás. Na de ezt hogyan oldod meg, hogy gyors legyen? Mert a legtöbb cégnek nem elég az, hogy nagy kapacitást adj, de ennek az egésznek gyorsan kellene történnie.
Nem, a crypto nagyon nem jó példa, mert ott egyetlen specifikus feladatra kell optimalizálni, itt viszont egy egyszerűbb program esetén is rengetebb apróbb számítás kell.
Oké, mondhatod azt, hogy kiküldök minden ilyen számítást külön-külön gépeknek és akkor ők azonnal majd küldik is vissza, de!! Mi van akkor, ha nem tudsz egy kis részt elküldeni addig, ameddig nincs egy részeredményed régebbről? Pl elég egy if elágazásra gondolni. Mondhatod azt, hogy akkor ezt az adott gépen számolod ki, csak el kell szomorítsalak, hogy a legtöbb programban nincs akkora nagy számításra szükség két elágazás között, hogy azt megérje elküldeni neten és várni, hogy visszakapj egy eredményt.
Persze mondhatod erre azt, hogy oké, akkor leküldök egy egész functiont és számolja azt a másik gép. Csak hát ezzel az a gond, hogy létezik az OOP, egy functionben lesz 4 másik function ami valahol máshol van a kódodban és azokban is lesz biztosan sok másik function… Látod már mi a gond?
Ha nem látnád, akkor leírom. A gond az, hogy vagy komplikált solution kellene ami okosan BÁRMILYEN programot lebont részekre ÚGY, hogy vakon ő előre tudja mihez melkora számítási igény kell és mi függ mitől, majd ezeket okosan elosztja több gép között; vagy kell egy külön libraryt írnod programnyelvekhez, hogy supportolják ezt a funkciót és akkor rábízod a programozókra az egészet.
Az első opció teljesen veszett ügy, de gondolom a második még tetszik, igaz? És amúgy igazad is lenne, ez hasznos lenne sok dologra! Csak megint az a fránya pénz lesz a gond, mert így több idő lesz fejleszteni (ami rohadt sok pénz a cégeknek), mivel sokba kerül ez a megoldás, ezért kevesen fogják használni és mivel kevesen használják, ezért egyszerűen nem éri meg vele foglalkozni.
Természetesen tuti ebbe is belekötsz majd, de azért érdemes lenne elgondolkoznod azon, hogy mindenki más a hülye, pláne hogy szerintem nem én vagyok az egyedüli szakmabeli itt, vagy te írsz f*szságokat aki valószínüleg nem is IT-s?
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!