Connect with us

technokrata

Nagyobb letöltési sebesség – optimalizálással

Kütyük

Nagyobb letöltési sebesség – optimalizálással

Számítástechnikával foglalkozó tudósok szerint az internetes letöltési sebesség hatalmas mértékben növelhető az elsőként Darwin által megfogalmazott evolúciós fejlődési mechanizmus alkalmazásával.

A gyakran keresett, letöltött adatok Interneten keresztül való folyamatos és ismétlődő utaztatása egyrészt nem hatékony, másrészt költséges. Éppen ezért érdemes olyan, az adatokat ideiglenesen tároló eszközöket alkalmazni, melyek a leggyakrabban igényelt információkat cache-elik. Ezzel csökkenteni lehet a hálózat fenntartási költségeit, s növelni lehet az online letöltés sebességét. Az azonban egy összetett és igazán jól nehezen megoldható probléma, hogy ezeket az adatokat hol és mennyi ideig tárolják. Az egyik megoldás az, hogy a cache-elő eszközök ismétlődően ˝beszélgetnek˝ egymással, ez azonban a sávszélesség szűkössége miatt hamar elvesztheti hatékonyságát.

A kihívás tehát adott: Pablo Funes az USA-beli Icosystem cégtől, Jürgen Branke és Frederik Theil pedig a németországi Karlsruhe-i Egyetemről közösen azon dolgoznak, hogy kielégítő megoldást találjanak a problémára. Ennek során úgynevezett genetikus algoritmusokat alkalmaztak, melyek a darwini evolúciós fejlődést utánozzák: stratégiákat alkottak az adatok ideiglenes tárolására. Ezek közül aztán a legjobbat érdemes alkalmazni. A kutatók egyébként különböző hálózatokhoz különböző algoritmusokat fejlesztettek ki, tovább növelve a hatékonyságot.

Funes szerint itt ráadásul nem áll meg a fejlődés: a tudós a New Scientist magazinnak elmondta, hogy az eredmények révén megnyílt az út azelőtt, hogy az egyes cache-szerverek saját maguk döntsenek sorsuk felett. ˝A további fejlesztés által különböző szabályok alakulhatnak ki minden egyes hoston vagy alhálózaton, amely megtalálható az Interneten. Képzeljük csak el, hogy akár minden különálló host a saját, optimalizált szabály(rendszerét) alkalmazza.˝ – fejtegette a kutató.

˝Faj˝ fejlődés a számítástechnikában

A csapat egy hálózati szimuláció révén tesztelte a különböző cache-elő stratégiákat. Virtuális internetes hálózatokat hoztak létre, ahol az adatok a főbb csomópontokon áthaladtak, illetve eltárolódtak. Ezt követően az algoritmusok ismert változóinak (hányszor kértek le egy adatot, mekkora volt egy adathalmaz mérete, hány csomópontot érintett útja során stb.) variálásával meghatározták, hogy hol és mennyi ideig kellene eltárolni az adott adatokat a lehető legnagyobb hatékonyság mellett. És itt jött a képbe az evolúció.

Először ugyanis véletlenszerűen próbálkoztak az algoritmusok megalkotásával, majd a kezdő populációból a legjobbnak bizonyultat kiválasztva egy új ˝algoritmus-fajt˝ ˝tenyésztettek˝ ki a kutatók. Több ilyen, bizonyos szempontból jónak bizonyult algoritmust aztán kereszteztek, miközben véletlenszerű mutációkkal ˝fűszerezték meg˝ az eljárást. Ennek eredményeként egyre jobb stratégiák bontakoztak ki az adatok ideiglenes tárolását tekintve.

Mindez oda vezetett, hogy egy 300 csomópontból álló szimulált hálózat esetében az általuk ˝kitenyésztett˝ algoritmus kétszer hatékonyabbnak bizonyult a létező legjobb stratégiáknál is. Funes azonban felhívta a figyelmet a módszer hiányosságaira is: nevezetesen arra, hogy a kísérletben nem igazán vettek figyelembe olyan tényezőket, mint a biztonság kérdése. A jövő számítógép-hálózatai előtt azonban ennek ellenére nagy fejlődés áll még.

Tovább
Kapcsolódó cikkek


Szólj hozzá!

További Kütyük

Technokrata a Face-en

Tesztek