Wilxlii Carrotte Geplaatst 2 november 2005 Geplaatst 2 november 2005 Als je gewend bent dagelijks alle caches van Nederland up to date in GSAK te proppen, dan krijg je binnenkort een probleem. Com staat niet meer dan 5x500 per dag toe. De teller voor Nederland staat nu op 2354 caches. Dat aantal zal snel stijgen met al die enthousiaste cache-plaatsers in ons midden. Dat wordt dus samenwerken door ontvangen bestanden uit te wisselen met elkaar. Of weet iemand een andere oplossing? Ik heb net ook maar weer eens de datums bijgesteld om het probleem-moment zo lang mogelijk uit te stellen: 1. tot 20-08-2003 (499) 2. 21-08-2003 t/m 21-05-2004 (498) 3. 22-05-2004 t/m 27-12-2004 (498) 4. 28-12-2004 t/m 13-07-2005 (496) 5. vanaf 14-07-2005 (363)
BigFurryMonster Geplaatst 2 november 2005 Geplaatst 2 november 2005 Wie wil er nu dagelijks alle NL-caches in GSAK proppen? GSAK is al lastig genoeg om mee te werken - ik gebruik het zelf liever als ik het echt nodig heb. Oplossing: queries uitsmeren over meerdere dagen.
deBruineBeren Geplaatst 2 november 2005 Geplaatst 2 november 2005 Als je alleen de caches opvraagt die je nog niet gevonden hebt scheelt dat 1756 stuks, dat zijn minimaal 3 queries.
Jurgen & Co Geplaatst 2 november 2005 Geplaatst 2 november 2005 Ik vraag alle caches tot max 200Km rond mijn huis. Dit zijn ook de duiste caches. Ik daarom 7 queries op datum aangemaat. Deze laat ik twee keer per week lopen. Ook heb ik een query met changes the last 7 days. Deze laat ik dagelijks lopen. Ook heb ik een query aangemaakt met mijn founds. Deze laat ik naar behoefte draaien. Nu heb ik dus dagelijks 3 queries draaien. En dat is voldoende. Mocht ik een keer gaan cachen buiten de 200 km dan draai ik een extra query. Het werken hiermee met GSAK is helemaal geen probleem. De queries komen binnen op een speciale gmail account voor de queries. Deze worden dan automatiesch geladen bij het starten van GSAK. Daarna gaan ze automatisch in de prullebak. Deze zal ik binnenkort eens leeg maken.
Wilxlii Carrotte Geplaatst 2 november 2005 Auteur Geplaatst 2 november 2005 Als je alleen de caches opvraagt die je nog niet gevonden hebt scheelt dat 1756 stuks, dat zijn minimaal 3 queries. <{POST_SNAPBACK}> Dat klopt, beste Beren, daarom laad ik ze maar 1x per week. Verder pak ik alleen de queries als ik erop uit trek en dan heb ik inderdaad maar 2 queries nodig. Maar er zijn anderen die wel elke dag alles laden. Vandaar mijn vraag die ik hier herhaal: Weet iemand een andere oplossing?
deBruineBeren Geplaatst 2 november 2005 Geplaatst 2 november 2005 Je zou zeggen dat als je GSAK een keer gevuld hebt met alles caches van Nederland, dan hoef je alleen nog maar de wijzigingen bij te houden. Met "Found in the last 7 days" en Updated in the last 7 days" en "Placed during" kan je dan de boel up-to-date houden. Helaas worden er in 7 dagen meer dan 500 caches gelogd dus dat past ook al niet in 1 querie. Zou er een logica in de querie "found in the last 7 days" zitten dan zou het kunnen. Je zou dan ook verwachten dat deze querie gevuld wordt met caches welke vandaag gelogd zijn, vervolgens met caches die gister gelogd zijn, enz enz. Tot dat de 500 zijn bereikt. Elke dag zou deze querie dan in ieder geval de logs van die dag moeten bevatten. En deze zou je dan kunnen gebruiken om je GSAK up-to-date te houden. Maar lijkt dit niet zo te zijn. Als ik op .com deze querie run dan lijken alles caches door elkaar te staan. Ook lijkt de GC nummer niet gebruikt te worden als maatstaf. Dit alles betekend niet dat deze methode niet zal werken, alleen het controleren op de juistheid van deze methode zal lastig worden.
Reintje de Vos † Geplaatst 2 november 2005 Geplaatst 2 november 2005 Weet iemand een andere oplossing? Is dat een retorische vraag?
schevy Geplaatst 2 november 2005 Geplaatst 2 november 2005 Als je alleen de caches opvraagt die je nog niet gevonden hebt scheelt dat 1756 stuks, dat zijn minimaal 3 queries. <{POST_SNAPBACK}> Dat klopt, beste Beren, daarom laad ik ze maar 1x per week. Verder pak ik alleen de queries als ik erop uit trek en dan heb ik inderdaad maar 2 queries nodig. Maar er zijn anderen die wel elke dag alles laden. Vandaar mijn vraag die ik hier herhaal: Weet iemand een andere oplossing? <{POST_SNAPBACK}> Tweede account nemen als premium member
De Roode Loper Geplaatst 26 januari 2006 Geplaatst 26 januari 2006 Volgens mij zijn we net over de 2500 heen. Ik heb net deel 6 aangemaakt.
Wilxlii Carrotte Geplaatst 26 januari 2006 Auteur Geplaatst 26 januari 2006 Volgens mij zijn we net over de 2500 heen. Ik heb net deel 6 aangemaakt. <{POST_SNAPBACK}> Inderdaad heb ik ook al een deel 6, maar ik heb er nu 2472 in gsak. Daarvan zijn er overigens 325 tijdelijk/definitief off line. Van de wel actieven heb ik er 863 nog niet gevonden. Ik kan nog even vooruit in 2 partjes.
leip11 Geplaatst 26 januari 2006 Geplaatst 26 januari 2006 kan je trouwens ook niet de gene die je al gedaan heb eruit filteren dat je ze dan niet meer op gsak krijgt alleen als je er zelf om vraagt
Wilxlii Carrotte Geplaatst 26 januari 2006 Auteur Geplaatst 26 januari 2006 kan je trouwens ook niet de gene die je al gedaan heb eruit filteren dat je ze dan niet meer op gsak krijgt alleen als je er zelf om vraagt <{POST_SNAPBACK}> Dat kan zeker! Bij de pocket queries kun je vrij behoorlijk kiezen welke caches je wilt hebben. Toch wil ik alle caches hebben.
De Roode Loper Geplaatst 27 januari 2006 Geplaatst 27 januari 2006 [Van de wel actieven heb ik er 863 nog niet gevonden. <{POST_SNAPBACK}> Daar ken ik er denk ik 4 van .
Mr.Chaos Geplaatst 27 januari 2006 Geplaatst 27 januari 2006 .....maar ik heb er nu 2472 in gsak...... Dat lukt mij op dit moment nog net met 5 pocketqueries, als je de data maar goed instelt... Volgende week zullen we echter wat anders moeten verzinnen!
Team 16 Geplaatst 27 januari 2006 Geplaatst 27 januari 2006 Je zou zeggen dat als je GSAK een keer gevuld hebt met alles caches van Nederland, dan hoef je alleen nog maar de wijzigingen bij te houden.Met "Found in the last 7 days" en Updated in the last 7 days" en "Placed during" kan je dan de boel up-to-date houden. Helaas worden er in 7 dagen meer dan 500 caches gelogd dus dat past ook al niet in 1 querie. Zou er een logica in de querie "found in the last 7 days" zitten dan zou het kunnen. Je zou dan ook verwachten dat deze querie gevuld wordt met caches welke vandaag gelogd zijn, vervolgens met caches die gister gelogd zijn, enz enz. Tot dat de 500 zijn bereikt. Elke dag zou deze querie dan in ieder geval de logs van die dag moeten bevatten. En deze zou je dan kunnen gebruiken om je GSAK up-to-date te houden. Maar lijkt dit niet zo te zijn. Als ik op .com deze querie run dan lijken alles caches door elkaar te staan. Ook lijkt de GC nummer niet gebruikt te worden als maatstaf. Dit alles betekend niet dat deze methode niet zal werken, alleen het controleren op de juistheid van deze methode zal lastig worden. <{POST_SNAPBACK}> Weet iemand al een goede oplossing nu we 6 pq nodig hebben voor nederland!?
Aanbevolen berichten
Maak een account aan of meld je aan om een opmerking te plaatsen
Je moet lid zijn om een opmerking achter te kunnen laten
Account aanmaken
Maak een account aan in onze gemeenschap. Het is makkelijk!
Registreer een nieuw accountAanmelden
Ben je al lid? Meld je hier aan.
Nu aanmelden