Il giorno 13/gen/2014, alle ore 11:02, Stefano Salvador 
<stefano.salva...@gmail.com> ha scritto:

> 
> 
> > Il dubbio però che mi viene è il seguente:  prendere i dati liberi da una 
> > mappa la cui forza sta proprio nella continuità territoriale,
> scusa, ma la decantata continuita' territoriale cosa sarebbe? Se ci sono 
> degli errori o dei buchi (e ce ne sono, stanno calando sempre piu' ma ce ne 
> sono per la natura di OSM) la continuita' territoriale e quindi la forza 
> viene meno.... Viene meno PROPRIO LI' dove c'e' l'errore! La vera mancanza di 
> forza di OSM e' sempre stata l'omogeneita' del dato ovvero la mancanza di 
> "vera" continuita' territoriale. Via via che la base dati di raffina e si 
> migliora, il problema si riduce, ma rimane sempre un problema a monte che e' 
> quello della VALIDAZIONE del dato. Un progetto open come questo avra' sempre 
> un po' il fianco scoperto su questo aspetto, pur se i margini di 
> miglioramento sono ampi.
> IMHO, e mi piacerebbe essere smentito.
> 
> 
> Questa storia della validazione del dato che spunta periodicamente mi toglie 
> il sonno :-) mi ritrovo infatti ad usare spesso ad usare i dati OSM anche in 
> contesti per così dire ufficiali, non avere la garanzia della correttezza del 
> dato è per me quindi un problema. Al tempo stesso mi chiedo ( e me lo chiedo 
> da un po' ) cosa vuol dire validare un dato geografico ? ma soprattutto mi 
> chiedo se anche avessi un budget illimitato da spendere nell'acquisto di dati 
> "DOC" quali sarebbero le mie opzioni:
> 
> - i vari vendor commerciali (Teleatlas/Navteq/...) mettono in chiaro in 
> qualsiasi contratto che i loro dati non sono garantiti ne geograficamente ne 
> temporalmente.
> - Google neanche ci prova a fornire un dato corretto
> - Le varie CTRN in teoria dovrebbero essere garantite ma lo sono a n anni 
> prima, quindi, oltre a contenere comunque errori, sono pure intrisecamente 
> inaffidabili perché non so cos'è successo in un determinato territorio nel 
> frattempo.
Beh, allora intanto cerchiamo di mettere almeno qualche punto fermo. 
Un dato validato non potra' mai essere validato "in tempo reale". Nel senso che 
se si produce un dato "ufficiale", questo rappresenta uno stato di fatto ad una 
certa data. Le varie Carte Tecniche ufficiali fanno appunto riferimento ad una 
data di edizione. Stessa cosa potremmo dire per il catasto.

In maniera analoga (e opposta), i vari Teleatlas-Navteq-google etc non 
garantiscono la validita' dei dati perche' c'e' un continuo aggiornamento e non 
c'e' mai un vero e proprio punto fermo, per cui ci sono dei pezzi che vanno 
avanti e dei pezzi che rimangono indietro. Se non altro, pero', li' sappiamo 
che c'e' una uniformita' di procedura di acquisizione e c'e' comunque un certo 
tipo di validazione, e a livello puramente commerciale mi aspetto che la data 
di pubblicazione di un dataset corrisponda ad una data di edizione (se non 
vogliamo chiamarla validazione) univoca. 

Inoltre, andrebbero distinti due piani: la validazione intesa come "correzione 
degli errori di rilevazione" (nomi scritti male - tipo il nome della strada di 
Roma a cui faceva riferimento roberto -, geometrie registrate male) e la 
validazione intesa come "aggiornamento dei dati" (nomi delle vie che cambiano, 
geometrie delle vie che cambiano, nuove strade che vengono costruite).
Su OSM purtroppo per la natura stessa del progetto manca non solo una 
certificazione ma anche un sistema di omogeneizzazione come quello a cui fai 
riferimento tu sotto (enti pubblici, piu' occhi per controllare) su entrambi i 
punti. 
Tra l'altro in OSM l'immissione di dati provenienti da banche dati esterne, tra 
loro non omogenee per geometria (es: verificare l'idrografia su regioni 
limitrofe, tipo confrontare l'idrografia del Veneto e l'idrografia del Friuli, 
oppure del Trentino), e non rilevate direttamente o comunque omogeneizzate, 
produce macroscopici problemi di non-continuita' del dato.

Difficile quindi, anzi direi impossibile, in ogni tipo di fonte dati aspettarsi 
una validazione in tempo reale su tutto il dataset, a maggior ragione difficile 
aspettarselo su un dataset libero e free come OSM. 
Un sistema di validazione "alla tal data" e' pero' a mio parere doveroso 
affinche' il dataset possa avere un significato concettuale paragonabile a 
quello delle Carte Tecniche regionali, per dirne una. E su questo argomento 
sarebbe bene che OSM potesse trovare delle modalita' di miglioramento.

Per rispondere alla tua domanda, quindi, se io avessi un budget illimitato e i 
prodotti presenti sul mercato non mi soddisfacessero, dovrei investire 
direttamente io in una procedura di validazione del dato che controlla 
geometrie e database alfanumerico, e lo valida "alla data tale", cosi' come si 
fa quando si riaccatasta un immobile, o magari quando si deve costruire una 
strada in mezzo alle montagne e si fa un rilievo topografico apposta.
> 
> A questo punto mi chiedo se esiste davvero un dato geografico validato che 
> vada al di là di piccolissime porzioni di territorio. 
Validato alla data di pubblicazione, ed ad una determinata scala, esistono tipo 
le Carte Tecniche. Oppure, in settori specifici (es. "sentieri del Trentino", 
rilevati proprio da una qualche ditta di cartografia con GPS EGNOS durante 
l'estate 2013.... o altro).

> 
> Secondo me l'assunto che i dati pubblici sono migliori e vero perché così ci 
> sono più occhi a controllarli, altro modo per validare un dato geografico non 
> l'ho ancora trovato.
Tu per dati pubblici intendi i dati ufficiali tipo CTR oppure i dati open tipo 
OSM?
A mio parere, in linea puramente concettuale piu' che concreta, sono meglio i 
dati UFFICIALI, non solo per i piu' occhi a controllarli (perche' i controlli 
devono essere "a tappeto", non random da parte di utenti sporadici.... 
dell'occhio sporadico di un utente che per caso inciampa in un nome di una via 
sbagliata, e magari non inciampa mai in un'altra via sbagliata, per cui si 
corregge solo quella in cui si e' inciampati ma non si corregge quell'altra, 
almeno finche' non ci inciampa qualcun altro....) ma anche per le procedure 
specifiche di validazione sia per quanto attiene la geometria sia per quanto 
attiene il contenuto dei record.

In ogni caso, non mi scandalizzo certo se in un dataset trovo un errore di un 
toponimo, a meno che non si tratti di qualcosa di macroscopico.
Ergo, uso volentieri OSM "cum grano salis", come posso usare ogni altra fonte 
dati che mi torni utile per uno specifico lavoro.

Ciao,
Marco

Marco Gualdrini
GEOgrafica - Faenza

-------------------------------------------------------------------------------
GEOgrafica - GIS, cartografia digitale e simulazioni territoriali virtuali
www.geografica.org

Virtual Terrain Project / GeoView examples: 
http://youtu.be/qEeGjNvwl4Y
http://youtu.be/9UPfufPLQUw
http://youtu.be/gv8HgX9TZfs

-------------------------------------------------------------------------------

_______________________________________________
Gfoss@lists.gfoss.it
http://lists.gfoss.it/cgi-bin/mailman/listinfo/gfoss
Questa e' una lista di discussione pubblica aperta a tutti.
I messaggi di questa lista non hanno relazione diretta con le posizioni 
dell'Associazione GFOSS.it.
666 iscritti al 22.7.2013

Rispondere a