Mumzle Geplaatst 22 juni 2003 Geplaatst 22 juni 2003 Zojuist wilde ik gaan starten met het loggen van onze wandelingen van vandaag, maar ik krijg telkens een error bij het trachten te benaderen van de cachepagina's. Ook op de COM zelf lukt het niet meer. Hebben jullie er ook last van? Groet, Mumzle
barnold Geplaatst 22 juni 2003 Geplaatst 22 juni 2003 ja sinds ruim een half uur wil het niet meer zal wel een kwestie van afwachten zijn
barny Geplaatst 22 juni 2003 Geplaatst 22 juni 2003 Ja waardeloos is het Ik kan al een hele week niet loggen ondanks er div meeltjes naar Heidi zijn gegaan Daarom maar een tijdelijk account aangemaakt "Barny Frustratie" En nu maar wachten tot ze daar wakker worden
Mumzle Geplaatst 22 juni 2003 Auteur Geplaatst 22 juni 2003 Yep, bij mij nu ook weer......... Loggen maar
barny Geplaatst 22 juni 2003 Geplaatst 22 juni 2003 het werkt weer allen kan ik nog steeds niet onder mijn eigen naam loggen
Kruimeldief Geplaatst 24 juni 2003 Geplaatst 24 juni 2003 Hmm, wil een nieuwe cache aanvragen en krijg het volgende te lezen: Geocaching.com IP Error Page We experienced a network error from your IP address and it has been temporarily disabled. Please contact us at admin@groundspeak.com right away so we can correct it. Thank you, The Groundspeak Team Wie kan mij uitleggen wat er aan de hand is? Ik kan dus helemaal niet meer inloggen en snap het probleem niet ;(((( GRTZ Kruimeldief
Eagles Geplaatst 24 juni 2003 Geplaatst 24 juni 2003 Kan het zijn dat je op één of andere manier grote hoeveelheden data van hun database zuigt? Daar hebben ze namelijk nogal een hekel aan en heeft al geleid tot IP-ban voor sommige personen. Er is zelfs al eens een hele provider eventjes de klos geweest omdat ze een hele range banden (i.v.m. dynamische IP adressen bij een inbel-situatie).
Kruimeldief Geplaatst 25 juni 2003 Geplaatst 25 juni 2003 Eagles, dat was het dus helemaal Ik heb zojuist bericht gehad: Edie - This usually happens when the server detects an unusually high amount of traffic from a single IP address. Can you please send me your IP so I can investigate? Thanks, -Elias De reden heb ik hun uitgelegd en gelijk daarna was ik er ook weer. Ik begreep eerst totaal niet wat er aan de hand was maar kwam er ineens achter dat ik met Gartrax van P-terminator een loc file van 500 caches, een download heb uitgevoerd van al deze caches incl logs en incl alle foto's die bij de caches en de logs hoorden. In no time, met een snelheid van 300 k/s heb ik dus 300 Mb opgehaald. Omdat er iets was fout gegaan heb ik hetzelfde binnen een uur nog eens gedaan dus ik heb er zo maar ff zonder na te denken in een mum van tijd 600 Mb gedownload. Tja, zo kun je een complete site plat krijgen als je dat met een aantal tegelijk doet denk ik Ik ben er in ieder geval weer en heb zelfs excuses van hun aangeboden gekregen. Ik denk dat het laatste een vorm van beleefdheid is .... GRTZ Kruimeldief
Eagles Geplaatst 25 juni 2003 Geplaatst 25 juni 2003 AHA, dus jij bent één van die personen die .com soms qua performance onderuit trekt. Niemeer doen hè? Nee, zonder gekheid: als ik elke woensdagavond de .loc files van alle caches download, gewoon op de handmatige manier (dus pagina voor pagina met tegenwoordig 20 stuks per keer i.p.v. 25 ) dan merk ik heel vaak dat de respons na verloop van tijd dramatisch keldert. Een half jaartje terug kon ik supersnel nieuwe pagina's opvragen, tegenwoordig duurt het vaak lang voordat er überhaupt data terugkomt na aanklikken van een nieuwe paginalink! Het gaat zelfs tot een timeout aan toe! Er is dan gewoonweg nagenoeg geen, tot geen, dataverkeer. Het varieert hoeveel pagina's ik al gedownload heb voordat het wel eens instort, dus het zal niet aan de load liggen die ik leg op de server. Dit frustreert ENORM de download en wordt volgens .com voornamelijk veroorzaakt door mensen die over de hele wereld vette automatische downloads plaatsen. Dat trekt de server niet. Dus ook aan anderen: hou het beperkt wat je voor dataverkeer genereert vanaf geocaching.com .
P-Terminator Geplaatst 25 juni 2003 Geplaatst 25 juni 2003 De reden heb ik hun uitgelegd en gelijk daarna was ik er ook weer. [knip] Tja, zo kun je een complete site plat krijgen als je dat met een aantal tegelijk doet denk ik Ik ben er in ieder geval weer en heb zelfs excuses van hun aangeboden gekregen. Ik denk dat het laatste een vorm van beleefdheid is .... Mag je er nou gewoon mee door gaan? Zonder gekheid. Ik ben mij er van bewust wat GarTrax aan kan richten op een server. Daarom staat ook in de handleiding de aanwijzing om verstandig met downloaden om te gaan. Maar ja, wie leest er nog een handleiding tegenwoordig . In GarTrax is er in ieder geval alles aan gedaan om het verkeer zoveel mogelijk te beperken.
BigBird Geplaatst 25 juni 2003 Geplaatst 25 juni 2003 Inderdaad zijn ze bij gc.com niet blij met applicaties die de data uit de database zuigen. In het verleden zijn daar hevige discussies over geweest. Buxley (of hoe hij ook echt heet) heeft zwaar onder vuur gelegen. in Engeland is een site waar ze statistics genereerde op basis van dit soort downloads. Die site is een tijd uit de lucht gehaald omdat gc.com het er niet mee eens was. Maar kan je in GarTrax niet iets inbouwen waardoor alleen nieuwe informatie opgehaald wordt? Logs met foto's die je al een keer hebt opgehaald hoef je niet nog een keer te downloaden toch? Voor de duidelijkheid, ik heb de nieuwe GarTrax nog niet uitgeprobeerd (en wacht daar nog even mee :-) en leid uit de reakties af dat elke keer de volledige log weer opgehaald wordt Groeten
P-Terminator Geplaatst 26 juni 2003 Geplaatst 26 juni 2003 In GarTrax is er in ieder geval alles aan gedaan om het verkeer zoveel mogelijk te beperken. Dit betekent dus inderdaad dat reeds gedownloadde fotopagina's niet nog een keer gedownload worden. Per cache moet in ieder geval wel de hoofdpagina opgehaald worden, om nieuwe logs te kunnen vinden. Kleiner is de minimale download niet te maken. Het is in GarTrax wel mogelijk om een complete download te forceren. Dat staat natuurlijk standaard uit.
Eagles Geplaatst 27 juni 2003 Geplaatst 27 juni 2003 Als ik het zo lees dan vind ik dat Gartrax zich wat dat betreft behoorlijk netjes gedraagt. Dat je van een paar caches de inhoud geautomatiseerd opvraagt moet toch op zich geen probleem zijn. Als ik op pad ga voor een hele ris caches dan zou ik handmatig grotendeels dezelfde info toch ook al opvragen en is de hoeveelheid data die ik van .com vraag ongeveer hetzelfde: in de ene situatie handmatig, in de andere geautomatiseerd. Alleen ontstaat er natuurlijk wel een probleem als je onbewust een supergrote (en wellicht niet geheel nodige) datastroom gaat genereren. Als we daar met z'n allen rekening mee houden dan lijkt me dat .com er niet al te moeilijk over zal hoeven te doen. Het programma is opgesteld om dataverkeer in eerste orde te beperken, de gebruiker bepaalt vervolgens hoe heftig hij/zij het inzet.
Aanbevolen berichten