Statix ha scritto:Ciao Anthony, ciao Flash3005
Volevo dire a Anthony che ammiro il suo operato,spero che non me ne voglia,per le mie conoscenze di excel ,ancora a livello base e come entrare in un altro mondo,
è la prima volta che vedo un elaborato in 3D come lo chiamate voi,ed per me è molto complesso.
ci stò studiando.
Come detto in precedenza anche da Flash30005, a me serviva ricavarmi delle tabelle da tutti i 200 archivi in contemporanea così come in questo foglio che ho elaborato,quì mi calcola le statistiche con applicazione di filtri delle ambate,di tutti i miei archivi virtuali(200),archivio uno di seguito all'altro.Nei vostri elaborati trattate un solo archivio e volendo applicare su 200 ?
Come pure:
Statix ha scritto:...
per il momento a me basta un esempio di macro che fà questo
prendere un solo archivio calcolare il ritardo attuale e storico e frequente dell'ambo,e ambata su ambo
in seguito apporrò le modifiche per calcolare gli altri archivi.
Io sto' cercano di capire se l'elaborato di Anthony possa utilizzarlo vantaggiosamente; siamo ambedue un po' spiazzati ad usarlo ma se ci prendiamo confidenza e Anthony applica la modifica di aggiornare solo le estrazioni aggiunte, penso che quel lavoro potrebbe essere utilizzato come "motore" basterebbe linkare su un foglio tabellare i risultati che quel motore fornisce.
Adesso non so se occorrano 200 motori o no ma un po' di idee sono partorite, del resto si sapeva sin dall'inizio che la mole di dati era enorme. Ora bisogna solo decidere cosa fare avendo già qualche strumento in più rispetto al primo post di questo topic, è questa la strada da percorrere? Altrimenti quale altra strada?
Io stesso ho improvvisato (si noterà di sicuro) per realizzare qualcosa che dia qualche risultato, fino ad oggi non ho avuto mai un'esigenza di questo tipo: né per hobby né tantomeno al lavoro, ma anche quel modesto elaborato può essere uno spunto per trovare una soluzione adeguata alle tue esigenze.
Tu solo sai qual'è il problema reale dei 200 archivi se sono "statici" o dinamici (variabili anche essi nel tempo), intendo statici se sono come le estrazioni che una volta avvenute rimangono tali oppure variano anche i dati che dovrebbero essere consolidati visto che si "generano" con delle condizioni che potrebbero farli invece "rigenerare" ad ogni nuova estrazione.
Inutile dire che se sono dinamici è meglio lasciar perdere tutto sin da ora perché non faresti in tempo a calcolare tutto l'insieme che già dovresti inserire una nuova estrazione per ricominciare il calcolo, come ben sai c'è un'estrazione ogni due giorni.
Non ho calcolato il tempo che impiega il programma di Anthony per 400 estrazioni ma il mio non completato impiegava 3 minuti (400 estrazioni) significa che un archivio di 4000 sono 30 minuti ammettendo di farlo girare per 200 archivi = 6000 minuti in pratica 100 ore (4 giorni con 1 PC o 1 giorno con 4 PC) se sono archivi statici una volta realizzate le tabelle storiche si ha l'aggiornamento di un'estrazione con soli 3 secondi (10 minuti per tutti i 200 archivi). Ecco perché se sono dinamici non credo sia possibile stare dietro agli aggiornamenti.
Ok ora vado a letto perché con tutti questi numeri... comincio a darne qualcuno anche io
Buonanotte