On Thu, Dec 29, 2005 at 07:34:14PM +0100, Paweł Tęcza wrote: >Dlaczego wtedy transfer mialby byc bardzo efektywny? Przeciez lacze, >przez ktore sciagasz plik nie jest z gumy, ale to cos w rodzaju "rury" >o ograniczonej powierzchni przekroju. Jesli wiec przez ta rure mozesz >w danej chwili maksymalnie przeslac okreslona liczbe bajtow, to co za >roznica, czy robisz to za pomoca jednego, czy wielu polaczen?
Pod warunkiem, że rura nie składa się z kilku(nastu) mniejszych kanalików :) A różne mogą być tego przyczyny. Load-balancing per flow -- to pierwsze, co przychodzi na myśl. Limity przepustowości dla sesji na serwerach (lub w sieci -- założę się, że i takie coś się znajdzie). I pewnie jeszcze wiele innych potencjalnych przyczyn da się znaleźć. A za czasów generalnie mniej obciążonego (ale i generalnie wolniejszego) internetu pamiętam namiastkę p2p realizowaną przez GetRighta -- różne częsci pliku pobierane z oddzielnych mirrorów. Z pojedynczego hosta często nie dawało się osiągnąć sensownej prędkości (nawet na modemie), dopiero agregacja transmisji z kilku źródeł dawała sensowne wyniki (oczywiście zbyt dużo źródeł też nie ma sensu, bo narzut na ich obsługę dochodzi w końcu do znaczącej wielkości). A szczerze powiedziawszy aktualnie, w dobie ,,szybkiego'' internetu, wracają nieco stare wspomnienia. Zdecydowanie nie wszyscy są w stanie podać dane z odpowiednią prędkością, w zasadzie chwilami mam wrażenie, że głównie wielcy pokroju TASKu, ICMu, dużych portali i innych dużych ISP są w stanie wysycić pełne 4mbit pojedynczą transmisją. -- Jacek Politowski -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]

