Hogyan hozhatok létre keresőmotort?
Sziasztok. Igaz jártasabb vagyok a témában, de az alapot mégsem találtam. Tudna valaki segíteni, hogyan tudok létrehozni, meglévő domainre egyedi keresőmotort (kis erőforrásut, ez a cél)
Előre is köszi!
Az, hogy "meglevő domain" kevés információ.
Milyen oldalról lenne szó? Statikus (HTML, CSS esetleg Javascript állományokból, képekből, hangokból, videókból álló) vagy dinamikus (egy adatbázisszerveren vannak a tartalmak, amiből egy szerveroldali szkript kreál weboldalt a böngésző számára)? Utóbbi esetben valami egyedi rendszer, vagy valamilyen CMS (Drupal, Joomla) vagy blogmotor (Wordpress)?
Az oldalt beindexelték a keresők? Mert akkor azok segítségével is lehet keresni - például:
* [link]
* [link]
* [link]
Elfogtam egy nem privát üzenetet - a lényegét idézném:
"Szia. Lehet, szükségem lenne a segítségedre. Wordpressel szeretném. Van már tárhelyem, de nem csatoltam még a domainhez."
A Wordpressben van keresés blokk:
ami a adminisztrációs felületen (Megjelenés --> Widgetek --> +) adható hozzá az oldalhoz.
De akkor hol akarsz keresni?
Ha a saját Wordpresses oldaladon belül, akkor ott van a #3-as hozzászólásban szereplő lehetőség.
Ha a teljes Interneten akarsz keresni, azt nem úszod meg annyival, hogy feltelepítesz egy Wordpresst (vagy bármelyik más blogmotort/CMS-t).
Vagy valamelyik külső, saját rendszerrel rendelkező keresőszolgáltatást - Google-t, Bing-et, DuckDuckGo-t, stb... - illeszted be az oldaladba, vagy valamilyen elosztott metakereső szolgáltatás - mint a Searx vagy a YaCi - részévé válsz.
Hogy teljesen sajátot használj, az eléggé nehézkés.
#6: Ha a teljes webet indexelni akarod, akkor több milliárd weboldalt végig kell járnia az automatizált keresőrobotodnak - ami egy csomó idő (pláne, hogy ha egyszerre akarod egy weboldal összes lapját indexelni, azt az adott weboldal rosszul tolerálja és letilthatja a keresőrobot hozzáférését - éppen ezért ezt némi késleltetéssel kell kezelni) és sávszélesség - azokat fel kell dolgoznia - ezzel foglalkozik a "web scraping" témaköre - hatalmas kereshető adatbázisba kell szerveznie, majd ezt az adatbázist használja a kereső felhasználók által elérhető felülete.
Én amondó vagyok, hogy ezt kizárólag egy centralizált szolgáltatásra (értsd: egy szerveren van a keresőrobot és a kereső felhasználók által elérhető felülete) alapozni erőforrás-pazarlás. Én inkább valamilyen elosztott - több gépen futó - közösségi keresőszolgáltatásban gondolkodnék (mint az említett YaCi vagy a Gigablast), esetleg már meglevő keresőmotrokat használva (ilyesmik a metakeresők, mint például a SearX).
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!