Kezdőoldal » Számítástechnika » Programozás » OOP megy a szemétbe?

OOP megy a szemétbe?

Figyelt kérdés
Az MI kapcsán mostanában történt gyökeres változások arra késztettek, hogy átgondoljam a programozói státusz jelenlegi állapotát és annak jövőbeli szerepét. Arra jutottam, hogy ha a programkód generálás olyan magas szintre jut, mint az várható, akor talán maguk a programozási nyelvek is megváltozhatnak, akár meg is szűnhet a használatuk. Így látom ezt a paradigmák esetében is. Arra vagyok kiváncsi, más hogyan látja ezt? Ugye, az OOP egy emberközeli paradigma, de ami jó az embernek, az nem feltétlenül jó a gépnek. Az viszont tény, hogy az OOP nagyon erőforrásigényes, így valószinűleg ki fogják szorítani más, hatékonyabb paradigmák. Nem?

2023. aug. 2. 17:41
1 2 3 4
 11/37 anonim ***** válasza:
92%
Mondjuk nekem nem tiszta sor, hogy az OOP feltétlenül erőforrásigényes. Szerintem inkább arról van szó, hogy a legtöbb OOP nyelv valamilyen GC-t használ, ami valóban erőforrásigényes, de maga az OOP paradigma nem mondja hogy GC-t kell használni. Pl C++-ban lehet gyors OOP kódot írni. A polimorfizmus vagy a generikusok jelenthetnek overheadet, de ezeknek a feloldása sokszor fordítási időben is lehetséges.
2023. aug. 3. 08:54
Hasznos számodra ez a válasz?
 12/37 anonim ***** válasza:
0%

A végkövetkeztetéssel egyetértek, de a gondolatmenettel nem. Erőforrásigény tekintetében nincs lényegi különbség a paradigmák között, a modern compilerek és processzorok korában még annyira se, mint régen. Az fog nyerni, amit az első igazán faszán programozni tudó AI a legjobban ért. Ez vagy az OOP lesz, vagy sem. Leginkább valami új hibrid cucc amit direkt ilyen célra terveznek most valahol.


De ja, nekünk valószínűleg nem sok dolgunk lesz vele amúgy se. Az a fajta kódfarigcsálás amit eddig végeztünk, hamarosan kikopik, és valami magasabb szintű meta-lóf.szt fogunk használni egy rövid átmeneti időszakban, majd eljutunk oda, hogy nem mi utasítgatjuk az AI-t, hanem ő kérdezget bennünket, hogy kell-e valami.

2023. aug. 3. 15:11
Hasznos számodra ez a válasz?
 13/37 anonim ***** válasza:
0%

A problémák ott kezdődnek, hogy sok memória = lassú memória.

A címzés időbe kerül, a frissítés időbe kerül, a címfordítás is időbe kerül. Ha mindebből több kell, akkor az több időbe kerül.

Az OOP meg már szerkezetileg is memóriaigényes. Magasabb komplexitás extra memóriaterheléssel jár.

Az OOP-vel az a legnagyobb baj, hogy szinte mindenhol, általános érvénnyel használják, holott, sok esetben elég lenne csak bizonyos részeket ebben a paradigmában megírni.


Egyébként, én is azt gondolom, hogy az AI/MI korában csak egy relatív rövid, átmeneti állapot lesz az, amikor az általunk kifejlesztett nyelveken fog kódot gyártani a masina. Nyilván le lesz cserélve a java, a C és a többi nyelv is valami hatékonyabbra. Csak idő kérdése, de erről nekünk maximum véleményünk lehet, közünk úgy sem lesz sok hozzá.

2023. aug. 3. 15:24
Hasznos számodra ez a válasz?
 14/37 anonim ***** válasza:
90%
13-as (2023.08.03. 15:24): sok memória = lassú memória - Ezt az eszetlen ökörséget honnan szedted? Miért lassulna a memória attól, hogy több van a gépben?
2023. aug. 3. 17:59
Hasznos számodra ez a válasz?
 15/37 anonim ***** válasza:
10%

"Miért lassulna a memória attól, hogy több van a gépben?"


Ha nem lennél képzetlen mikulás, akkor erre a kérdésre tudnád a választ.

2023. aug. 3. 18:29
Hasznos számodra ez a válasz?
 16/37 anonim ***** válasza:
14%
Amióta az eszemet tudom, képes vagyok hídba menni attól, hogy képzett, értelmes emberek hogy a fenébe képesek egyetlen bitet szánni ilyen "Jaj-jaj, megint fejlődünk!" témakörök átlátni szándékozására. Nem azt mondom, hogy a mai napig van gőzgép, de azért gondoljunk az atomreaktorra egy pillanatra... Oké, kőbalta biztos nincs, talán soha nem is volt, mondta a téglával bevert szeg. Természetesen visszaszorul a régi, de nem mindenütt adja át a helyét az újnak. Természetesen nem tudjuk, nem is tudhatjuk, hova vezet az AI kissé ötletszerű és kompromisszumos térnyerése, és természetesen azok maradnak a keresett emberek, akik képesek jó szimbiózisban élni az új technológiákkal _IS_. Azt se zárhatjuk ki, hogy rém perverz arcok már most is azon az AI eszközön dolgoznak, ami a legdurvábban emberközeli fejlesztői környezetet fogja rendkívül nagy melóval összerakni, hogy az ember hatékony lehessen az elképzelései megvalósításában, képességei függvényében természetesen, meg hát eredendően nem csekély háttérismerettel, továbbra is. Az is lehet, hogy szingularitás lenni, és első dolga ráébredni, hogy nekünk csak egy jó játszótér kell, ami csak félig szenvedős (de az szigorúan), meg valamennyire kiteljesedős is (valami végpont nélküli izében persze), meg hogy az egészséges életmódot eladni nekünk továbbra is kozmikus nehézségű feladat, hiába ő a szingularitás... Nem tudjuk, vágod. Majd aki képes alkalmazkodni, az tud továbbmenni.
2023. aug. 3. 18:48
Hasznos számodra ez a válasz?
 17/37 anonim ***** válasza:
40%

"Ha nem lennél képzetlen mikulás, akkor erre a kérdésre tudnád a választ." ezek szerint amit eddig tanultam a memória vezérlő áramkörök működéséről és a bináris összeadókról az mind téves. Én eddig úgy tanultam, hogy egy szinkron összeadó esetén az összeadás ideje független attól, hogy hány darab 1-es értékű bit van a két regiszterben. De lehet, hogy itt kifejlődőben van egy új elektronika, és az összeadás ideje függ az 1-es értékű bitek számától szinkron rendszerben.


Ezt kérem mutasd be példával, hogy miért lesz lassabb a cím kiszámítása ha több 1-es értékű bit van a regiszterben.

2023. aug. 3. 20:18
Hasznos számodra ez a válasz?
 18/37 anonim ***** válasza:
6%
#17 szerintem itt a DRAM működési elve lesz a kulcs.
2023. aug. 3. 20:37
Hasznos számodra ez a válasz?
 19/37 anonim ***** válasza:
33%
Nem látom, hogy a DRAM-nál miért lassulna a mérettel. De tényleg. DRAM-mal már terveztem nem kevés hardvert de nem látom be, hogy ez miért okozná a lassulást.
2023. aug. 3. 20:41
Hasznos számodra ez a válasz?
 20/37 anonim ***** válasza:
6%

Ha sok, akkor a folyamatos frissítésigény és a bankolás tud mozdítani az effektív időzítéseken. Aki játszott tuninggal, az meg is szokta, hogy nagyobb modulok már csak nagyon drágán hoznak "menő" latencyket meg időzítéseket. Esélyesen az adott kihegyezéseken még épp stabil leggyengébb fogja behatárolni.

Nagy ramoknál ráadásul nyilván nem párhuzamosíthatunk a végtelenségig, 16G simán tud dupla idő alatt körbefrissülni, mint 8. És nagyon sok ramigényes algoritmus ordója minimum csúnyább egy sima n-nél.

2023. aug. 3. 21:01
Hasznos számodra ez a válasz?
1 2 3 4

Kapcsolódó kérdések:




Minden jog fenntartva © 2025, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu

A weboldalon megjelenő anyagok nem minősülnek szerkesztői tartalomnak, előzetes ellenőrzésen nem esnek át, az üzemeltető véleményét nem tükrözik.
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!