OOP megy a szemétbe?
A végkövetkeztetéssel egyetértek, de a gondolatmenettel nem. Erőforrásigény tekintetében nincs lényegi különbség a paradigmák között, a modern compilerek és processzorok korában még annyira se, mint régen. Az fog nyerni, amit az első igazán faszán programozni tudó AI a legjobban ért. Ez vagy az OOP lesz, vagy sem. Leginkább valami új hibrid cucc amit direkt ilyen célra terveznek most valahol.
De ja, nekünk valószínűleg nem sok dolgunk lesz vele amúgy se. Az a fajta kódfarigcsálás amit eddig végeztünk, hamarosan kikopik, és valami magasabb szintű meta-lóf.szt fogunk használni egy rövid átmeneti időszakban, majd eljutunk oda, hogy nem mi utasítgatjuk az AI-t, hanem ő kérdezget bennünket, hogy kell-e valami.
A problémák ott kezdődnek, hogy sok memória = lassú memória.
A címzés időbe kerül, a frissítés időbe kerül, a címfordítás is időbe kerül. Ha mindebből több kell, akkor az több időbe kerül.
Az OOP meg már szerkezetileg is memóriaigényes. Magasabb komplexitás extra memóriaterheléssel jár.
Az OOP-vel az a legnagyobb baj, hogy szinte mindenhol, általános érvénnyel használják, holott, sok esetben elég lenne csak bizonyos részeket ebben a paradigmában megírni.
Egyébként, én is azt gondolom, hogy az AI/MI korában csak egy relatív rövid, átmeneti állapot lesz az, amikor az általunk kifejlesztett nyelveken fog kódot gyártani a masina. Nyilván le lesz cserélve a java, a C és a többi nyelv is valami hatékonyabbra. Csak idő kérdése, de erről nekünk maximum véleményünk lehet, közünk úgy sem lesz sok hozzá.
"Miért lassulna a memória attól, hogy több van a gépben?"
Ha nem lennél képzetlen mikulás, akkor erre a kérdésre tudnád a választ.
"Ha nem lennél képzetlen mikulás, akkor erre a kérdésre tudnád a választ." ezek szerint amit eddig tanultam a memória vezérlő áramkörök működéséről és a bináris összeadókról az mind téves. Én eddig úgy tanultam, hogy egy szinkron összeadó esetén az összeadás ideje független attól, hogy hány darab 1-es értékű bit van a két regiszterben. De lehet, hogy itt kifejlődőben van egy új elektronika, és az összeadás ideje függ az 1-es értékű bitek számától szinkron rendszerben.
Ezt kérem mutasd be példával, hogy miért lesz lassabb a cím kiszámítása ha több 1-es értékű bit van a regiszterben.
Ha sok, akkor a folyamatos frissítésigény és a bankolás tud mozdítani az effektív időzítéseken. Aki játszott tuninggal, az meg is szokta, hogy nagyobb modulok már csak nagyon drágán hoznak "menő" latencyket meg időzítéseket. Esélyesen az adott kihegyezéseken még épp stabil leggyengébb fogja behatárolni.
Nagy ramoknál ráadásul nyilván nem párhuzamosíthatunk a végtelenségig, 16G simán tud dupla idő alatt körbefrissülni, mint 8. És nagyon sok ramigényes algoritmus ordója minimum csúnyább egy sima n-nél.
Kapcsolódó kérdések:
Minden jog fenntartva © 2025, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!