Re: [Hackmeeting] dati aperti

Poista viesti

Vastaa
Lähettäjä: billie
Päiväys:  
Vastaanottaja: hackmeeting
Aihe: Re: [Hackmeeting] dati aperti
On 04/01/2011 10:47, void wrote:
> i giornalisti italiani dovrebbero iniziare ad aggiornarsi


che palle l'ultima moda del data mining!!! passera' anche questa?
bho ci sono tremila cose interessanti che si possono fare con la mole di
dati che si trovano oggi in giro per l'internet.
per esempio, a proposito di sta cosa dei giornalisti, io, su un campione
di twwitter con dati trainati per riconoscere i tweets che sono news,
sono semplicemente andata a guardare dove puntavano url dei tweets...per
vedere se andavano verso i media tradizionali o su informazioni scritte
con media dal basso..
l'ho fatto su due campioni uno random e uno sui dati del COP15 raccolti
nei giorni della protesta..
possiamo dire che nel cop15 la gente ha usato anche fonti dal basso
(sarebbe meglio dire che nn c'è prevalenza dei media tradizionali, ma
una coda lunga di piccoli blog).. mentre nel random i media tradizionali
sono la fonte di informaizone, che poi pero' circola, si diffonde
attraverso ovvimaetne gli users..
quindi bho quell'articolo è la solita cosa atta a colpire
nell'immaginario, ma nn mi pare che abbia poi tutto sto senso.
cioè inverte l'asse creazione/diffusione di notizia.
ovviamente, io sarei felice se i media fossero creati dal basso, ma
raga' nn è cosi, per un cazzo.
e fare data maning per scirvere un articolo giornalistico ...è un po una
cazzata.

questo nn ha niente a che fare con i dati della pubblica
amministrazione, secondo me.
cioè io nn capisco sta mania per i microdati..
motivi:
1. forcaiolo leghista: vado a vedere quanto prende il mio vicino di
casa, quello prendo piu' di me, quello evade ..blabla..
come se fosse un problema a livello micro-sociale, di farsi la spia
avicenda e nn una questione politica ben piu' seria;
mentre averli disaggregati a quel livello, senza l'ID della persona, nn
ti serve a niente, a meno che nn li aggreghi e ci fai statistiche.
2. vedere come vengono spesi i nostri soldi:
db sulle politiche, cioè policy evaluation.
anche in questo caso, se nn sai come vengono distribuiti i soldi in
generale, nn ci capisci una mazza a livello micro, cioè se nn aggreghi
.. oppure: altro esempio, do' un milione di euro alle imprese che
assumono un disoccupato e a te nel db ti risulteranno 3mila nuovi posti
di lavoro..
figata! eh no, perche nn sai:
a. con quale contratto (anzi, con inps lo sai:) quindi vai, matchi i dati,
ma poi nn sai la storia lavorativa della persona, quindi magari gli
hanno fatto un cotnratto di 6 mesi, e poi il 30% delle persone è stata
assunta, il 70% è tornata a casa e si è solo sprecato denaro pubblico..
quindi: anche se tu hai avuto i dati micro e free, nn c'hai capito una
mazza. a meno che tu nn sei uno statistico.

altra opzione è farci delle query di senso, come oggi puoi fare se vai
sl sito di inps e anche su istat..

ma bho, liberare dati per liberare dati....solo per fare mining a free
su 50milioni di cittadini..su dati succulenti come quelli delle PA, che
le imprese si scarichino i dati dei social media che sono piu' facili e
accessibili.

bho, poi io di ste pippe su Opendata nn ne so granche..
diciamo che la mia è esperienza sul campo, piu' che il punto di vista su
CC ecc...

m2c
billie