Pagina 2 di 3 PrimaPrima 123 UltimaUltima
Risultati da 11 a 20 di 29
  1. #11
    Pianeta L'avatar di francler
    Data Registrazione
    Aug 2018
    Messaggi
    48
    Taggato in
    7 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    Ho capito. E quanto tempo occorre prima che il segnale superi il rumore, di solito? Up ha scritto che a ISO medio-alti puoi vedere in pochi minuti quello che ti serve, ma anche con la giusta combinazione di ISO e apertura rischi di non vedere nulla?

    PS. cosa intendi con condizioni al bordo?

  2. #12
    Sole L'avatar di Gimo85
    Data Registrazione
    Aug 2015
    Località
    Trieste
    Messaggi
    899
    Taggato in
    67 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    Un software o un qualsiasi algoritmo deve avere delle condizioni di verifica dalle quali partire ed eventualmente procedere oppure fermarsi. Deve avere anche dei controlli intermedi per non partire per la tangente e restituire risultati assurdi. Ecco che questi controlli sono da inventare, perchè c'è da regolare non solo l'intensità del segnale, ma anche il contrasto e la saturazione dei colori e queste sono informazioni che in una posa molto breve non possono venire dalla sorgente, ma devono essere immesse dall'esterno.
    In pratica se non c'è abbastanza segnale e il software non sa dove deve andare a parare darà risultati casualmente giusti, ma molto probabilmente sbagliati.

    Gli oggetti deep sky sono in prima approssimazione classificabili per tipo, ma anche all'interno dello stesso tipo hanno caratteristiche peculiari, per cui la combinazione iso-esposizione adatta a uno non è detto sia adatta agli altri.
    Esiste una tecnica recente, cerca nel forum lucky imaging che fa uso di sensori CMOS molto sensibili, con basso rumore di fondo e riesce a sfruttare molte esposizioni di pochi secondi, riducendo il tempo totale.
    Questa tecnica è utilizzabile per ora solo su soggetti molto luminosi, per cui con pochi secondi si riesce a catturare segnale.

    edit: non stiamo poi considerando l'apertura del telescopio o dello strumento di ripresa. Più è grande e a rapporto focale basso più è catturabile molto segnale in tempi più brevi.
    Ultima modifica di Gimo85; 16-08-2018 alle 18:18
    Misurate ciò che è misurabile e rendete misurabile ciò che non lo è (Galileo Galilei)
    SW 70/400 70/700 70/900 120/1000 tutti rifrattori, tutti acromatici, tutti su equatoriale.

  3. #13
    Pianeta L'avatar di francler
    Data Registrazione
    Aug 2018
    Messaggi
    48
    Taggato in
    7 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    Citazione Originariamente Scritto da Gimo85 Visualizza Messaggio
    Ecco che questi controlli sono da inventare
    E' esattamente quello che vorrei fare, ma parlerei più di modello che di controlli "à la sistema dinamico".

    Citazione Originariamente Scritto da Gimo85 Visualizza Messaggio
    [...] c'è da regolare non solo l'intensità del segnale, ma anche il contrasto e la saturazione dei colori [...]
    Non esattamente, quelli sono dati, che possono essere di training o di test (o di validazione). Il modello è probabilistico, non fisico, non c'è un segnale da regolare o amplificare o moltiplicare, ma probabilità da calcolare. E' ovvio che è impossibile sbattere una costante moltiplicativa calcolata come media su tante immagini e via.

    Citazione Originariamente Scritto da Gimo85 Visualizza Messaggio
    [...] la combinazione iso-esposizione adatta a uno non è detto sia adatta agli altri.
    Sì, infatti la variabilità è la ragione dell'analisi, e non avrebbe senso applicare il machine learning se non ci fosse variabilità (pensate agli algoritmi di riconoscimento dei cani: riescono facilmente a tenere conto della razza, distinguendo un Chihuahua da un gatto facilmente come un San Bernardo da un gatto).

    Comunque, più in generale, non riesco a capire bene cosa intendete. Se fate una foto con un secondo di esposizione, cosa vedete? E se la lasciate per 10 secondi? E dopo 100? E dopo 1000? L'emersione dell'immagine non è graduale? Quand'è che la fotografia raggiunge almeno il livello del visuale? Dovrebbe esistere un intervallo temporale in cui l'essere umano non distingue nulla sul display, ma effettivamente qualcosa c'è, no? Quanto vale quell'intervallo temporale?

    Citazione Originariamente Scritto da Gimo85 Visualizza Messaggio
    in un secondo il sensore non rileva nulla o quasi nulla del segnale dall'oggetto deep sky [...] deve essere composta da singoli fotogrammi con esposizione di diversi minuti
    Cosa compare sul singolo fotogramma con minuti di esposizione? In un secondo non esiste sensore che rilevi qualcosa? Dopo quanto il segnale luminoso "reale" supera il rumore di fondo? Se è una variabile aleatoria che rappresenta il rumore bianco, quand'è che ?

    Scusate le domande ma vorrei capire bene a fondo cosa intendete.
    Certo, avere una serie di fotogrammi cumulativi di un'esposizione, che contengano l'emersione graduale dell'immagine, aiuterebbe a chiarirmi le idee

  4. #14
    Sole L'avatar di mikyfly
    Data Registrazione
    Jan 2014
    Località
    Roma
    Messaggi
    835
    Taggato in
    91 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    Mi piace il tuo approccio teorico ed effettivamente concordo con te: deve esistere una relazione tra tempo, sensore ed oggetto.

    Non posso aiutarti da un punto di vista teorico, ma se provi a cercare tra le discussioni iniziate da @Maurizio_39 potresti trovare spunti interessanti (ricordo una affascinante discussione proprio su un tema simile).
    Ultima modifica di mikyfly; 16-08-2018 alle 23:03
    Osservo con: Dobson 250/1200 e TS Apo 130 F7. Fotografia Deep: SW 80/600 BD & ASI 585

  5. #15
    Sole L'avatar di Gimo85
    Data Registrazione
    Aug 2015
    Località
    Trieste
    Messaggi
    899
    Taggato in
    67 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    @francler è più facile a vedersi che a farsi.
    Gli oggetti deep sky sono spesso sistemi di oggetti diversi, che emettono radiazione in intensità e frequenze diverse, quindi se per Andromeda il primo secondo di esposizione inizia a rilevare già il nucleo galattico meglio dell'occhio umano, le propaggini più esterne hanno bisogno del 12-15esimo per emergere dal rumore (con l'occhio non si vedono proprio). Le polveri poi emergono per contrasto tra zone illuminate e zone che restano buie, interpolando l'informazione dei pixel adiacenti nel primo secondo di esposizione e senza conoscere l'oggetto lo sbaglieresti di sicuro.
    In generale un sensore elettronico supera di gran lunga e dopo pochissimo l'occhio umano al telescopio.

    Dovresti andare nella sezione di astrofotografia deep sky e confrontare lo stesso soggetto ripreso da astrofili diversi...i risultati per la maggior parte dei soggetti sono molto variabili, e non dipendono solo dalla strumentazione.

    Mi immagino dei controlli dinamici perchè credo sia una via fattibile, per un modello ti ci vorrebbe un'esperienza sconfinata in astrofotografia, oppure un database enorme, pieno di soggetti unici, su cui tarare il modello (ma un modello dovrebbe poter camminare, così diventerebbe un sistema di riconoscimento di impronte digitali).

    Confermo che servirebbe qui l'approccio analitico sulle magnitudini di @Maurizio_39
    Misurate ciò che è misurabile e rendete misurabile ciò che non lo è (Galileo Galilei)
    SW 70/400 70/700 70/900 120/1000 tutti rifrattori, tutti acromatici, tutti su equatoriale.

  6. #16
    Pianeta L'avatar di francler
    Data Registrazione
    Aug 2018
    Messaggi
    48
    Taggato in
    7 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    Vi ringrazio per avermi segnalato l'utente, le sue discussioni sembrano molto, molto interessanti! Inizierò a spulciarmele.

  7. #17
    Pianeta L'avatar di francler
    Data Registrazione
    Aug 2018
    Messaggi
    48
    Taggato in
    7 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    Rispondo cercando di fare un po' di chiarezza, perché rileggendo ciò che ho scritto ho capito perché nessuno ha capito.

    Parto con un micro riassunto dei concetti base di probabilità necessari a comprendere meglio la questione.

    Anzitutto, cos'è la probabilità? Per rispondere è prima necessario chiarire cos'è la nozione di "evento". La prima cosa da fare per capire quale sarà l'esito di una prova, o un esperimento o di un test, è la più ovvia: fare un elenco degli esiti possibili. Questo elenco si chiama "spazio campionario", generalmente indicato con la lettera greca . Ad esempio, lo spazio campionario per gli esiti di un dado a sei facce è . Un "evento" è un elemento dello spazio campionario, ad esempio nell'esempio di un singolo lancio di un dado a sei facce. Nel caso di due lanci di un dado a sei facce, un evento può essere invece , cioè ottengo prima 1 e poi 5.
    Tornando al discorso iniziale, cos'è la probabilità? La probabilità è una funzione definita sullo spazio campionario a valori in [0,1]. Cioè, è una cosa in cui tu metti dentro un "evento" e ti sputa fuori un numero compreso tra zero e uno. Se il mio dado a sei facce è equilibrato (questa è un'assunzione a priori), per ogni lancio ogni numero ha una probabilità eguale di uscire, cioè per ogni x = 1, 2, 3, 4, 5, 6.

    E qui si conclude il "matematichese". Ora, mettiamo di trovarci davanti a un sistema un po' complicato. Ad esempio, facciamo finta di trovarci su un prato, sotto al cielo, quindi consideriamo il sistema prato+cielo, e vado a considerare i due spazi campionari: {"cielo nuvoloso","cielo sereno","piove"} e {"erba bagnata","erba asciutta"}. Vogliamo calcolare la probabilità che l'erba sia bagnata. Tuttavia, conosciamo il meteo attuale, e sappiamo tutti che il meteo influenza il fatto che l'erba sia bagnata o meno. Questa cosa si chiama "probabilità condizionata", ossia, sappiamo fornire delle misure di probabilità più precise di un evento A in base alla conoscenza di un evento B. Questa cosa si indica nel seguente modo: , e si legge "P di A dato B", e significa "probabilità che accada A sapendo che è accaduto B". Tornando all'esempio di prima, quindi, è ovvio che la probabilità che l'erba sia bagnata sapendo che piove è 1 (evento certo). E' abbastanza altina se il cielo è nuvoloso (può aver piovuto da poco o siamo in una stagione piovosa), diciamo 0.4. Sappiamo che è bassa se il cielo è sereno, diciamo 0.1 (sono valori a titolo esemplificativo). Quindi: P("erba bagnata"|"piove") > P("erba bagnata"|"cielo nuvoloso") > P("erba bagnata"|"cielo sereno"). Ovviamente per l'erba asciutta la catena di disuguaglianze è ribaltata: P("erba asciutta"|"piove") < P("erba asciutta"|"cielo nuvoloso") < P("erba asciutta"|"cielo sereno").

    Ora, provo a contestualizzare il discorso dei pixel in questo framework. Consideriamo delle immagini monocromatiche per semplificare e senza perdita di generalità (immagini a colori vuol dire tre componenti cromatiche per pixel e si entra nel fantastico mondo delle probabilità vettoriali, cosa che va oltre lo scopo divulgativo di questo commento).
    Quello che voglio andare a calcolare è la luminosità di un pixel X in un certo istante di tempo (diciamo tre ore, puramente ed esclusivamente a titolo esemplificativo). Quindi, il nostro spazio campionario risulta un po' più complesso del caso del dado a sei facce o della pioggia. Si tratta di uno spazio campionario continuo. Cioè, il valore del pixel può assumere un range di valori, diciamo tra 0 e 10 (0 = nero, 10 = bianco saturo, valori in mezzo = scala di grigi).
    Quindi, vogliamo sapere, ad esempio la probabilità che il nostro pixel X raggiunga la luminosità, che so, 3.45. Ossia P( 3.45 - < X < 3.45 + ). Perché X deve stare fra quei due valori? Semplice, la probabilità che una variabile continua assuma ESATTAMENTE un numero è sempre 0 (a meno di casi patologici e delte di Dirac selvatiche di cui non parlo). Tuttavia, per questo discorso possiamo tranquillamente scrivere che P( 3.45 - < X 3.45 + ) è uguale a P(X=3.45). E' una convenzione, ma semplifica enormemente il discorso.
    Ora, ovviamente non abbiamo nessun modo di calcolare la suddetta probabilità. A parte uno: condizionandola a degli eventi passati già misurati. E cosa sono questi eventi passati? Possono essere i valori di X misurati in qualche istante di tempo prima, ad esempio quelli calcolati agli istanti 1 secondo, 2 secondi e 3 secondi (in notazione: , e ). Quindi possiamo calcolare la probabilità: P(X=3.45 | , , ). Però, magari, ci accorgiamo che è bassa. Allora vogliamo cercare qual è il valore di X dopo tre ore che massimizza la suddetta. In notazione:



    Ossia: è l'argomento che mi massimizza (argmax) la funzione.
    Ovviamente la cosa può essere complicata a piacere. Ad esempio, la logica suggerisce che se i pixels intorno al pixel X sono stati catalogati molto luminosi (scuri, rispettivamente), allora anche X sarà verosimilmente molto luminoso (scuro, rispettivamente). Come vedete ci si può sbizzarrire sulla questione.

    La domanda sorge spontanea: ma come calcolo queste probabilità? Dai dati. Le probabilità suddette si calcolano a partire da una tabella di dati, chiamata dataset, che colleziona un numero colossale di immagini calcolate nei valori iniziali di istanti di tempo (nell'esempio di prima a 1, 2 e 3 secondi) e dalla risposta (ossia dall'immagine finale).
    Ok, dopo che ho i dati come calcolo queste probabilità, quindi? Questa è la domanda più divertente di tutte, ed è qui che entra in gioco il machine learning. Si parte con un modello: Random forest? Naïve Bayes? Regressione lineare? Multipla? AdaBoost? Gradient Boost? Cosa? Poi, occorre saper dividere il dataset in modo da fornire stime degli errori accurate e tuning dei parametri, e anche qui si apre un mondo: test, train, validation, cross-validation, bootstrapping, bagging, ecc...

    Spero di aver dato un flavor della cosa.
    L'utente che mi avete segnalato in una discussione ha fatto un riassunto di diverse ricerche e paper che descrivono una relazione analitica tra il tempo di esposizione e vari parametri (luminosità, caratteristiche di telescopio e CCD, ecc...), e questo tipo di relazioni potrebbero essere le protagoniste del preprocessing, ossia, importantissimi calcoli fatti sul dataset prima (pre-) di calcolare (-processing) le probabilità suddette. Inoltre, rispondono in modo esaustivo alle osservazioni giustamente fatte da altri utenti.

  8. #18
    Nana Bruna L'avatar di Maurizio_39
    Data Registrazione
    Mar 2018
    Località
    Roma
    Messaggi
    172
    Taggato in
    32 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    @francler
    Rispondo usando questa discussione per evitare di andare fuori argomento.
    Cos'è il termine D nella prima espressione? E ? Ce ne sono diversi altri in verità…
    Con D ho indicato il diametro in mm della pupilla d’entrata, mentre con mi sono riferito alla dimensione del singolo fotosensore (pixel), sempre in mm.

    ...se esistono dei sistemi software i quali, prendendo in input un segnale luminoso…mediante un algoritmo di estrapolazione dai dati forniti in pochi istanti dalla webcam… come se fosse stata esposta per diverse ore.
    Mi risulta che una webcam riprende fotogrammi con frequenza minima di circa 5 f/s, che non può consentire tempi di esposizione superiori a 20/100 di secondo, tempo già molto breve per accumulare un sufficiente numero di elettroni nel sensore. Una impostazione della webcam che preveda un numero maggiore di fotogrammi/sec aumenta il numero di fotogrammi ma riduce quello delle deboli informazioni rilevate.
    Questo aspetto è stato giustamente rilevato anche da @Gimo85:
    ...in un secondo il sensore non rileva nulla o quasi nulla del segnale dall'oggetto deep sky, è per quello che sono necessarie le lunghe esposizioni.
    Torniamo a noi.
    … estrapola e ottiene una versione simulata sovraesposta, come se l'esposizione fosse durata ore.
    L'algoritmo dovrebbe fare "learning" su un insieme di frame relativi a un intervallo molto breve, non più di un secondo, e utilizzare la variazione di ogni singolo pixel per operare una mostruosa estrapolazione a diverse ore.
    Riguardo al numero di frame relativi ad un intervallo molto breve, leggi sopra.
    L’accumulo di elettroni, generati dai fotoni incidenti, è un fenomeno soggetto a distribuzione statistica; se tale accumulo è scarso, il conteggio può essere mascherato dagli elettroni generati da fenomeni di polarizzazione del sensore, dal Bias (segnale generato dai circuiti elettronici), dal rumore di lettura del chip e da eventuali campi magnetici esterni circostanti.
    Ora, sulla base di quanto detto sopra, in un secondo si possono accumulare solo 5 rilevazioni e ognuna di esse può essere affetta dal “rumore” sopra esposto, che magari la sovrasta. Personalmente ritengo che esse non possano essere considerate un campione statisticamente valido, e non riesco ad immaginare come si possa da esso estrapolare una funzione che lo proietti validamente al un tempo ottimale di saturazione.

    Quand'è che la fotografia raggiunge almeno il livello del visuale? Dovrebbe esistere un intervallo temporale in cui l'essere umano non distingue nulla sul display, ma effettivamente qualcosa c'è…
    Il motivo non è che l’occhio non riesce a vedere per una sua carenza mentre lo può il sensore, il motivo è che anche il sensore non ha il tempo di accumulare una apprezzabile informazione, oppure che ce l’ha, seppur minima, ma mescolata ad altri disturbi di base.
    Se il motivo fosse questo basterebbe forse pensare a sommare diverse volte la stessa immagine per intensificare il bassissimo segnale esistente, ma insieme ad esso si intensificherebbero di pari passo tutti gli altri segnali indesiderati presenti.

    Anzitutto, cos'è la probabilità?
    Le probabilità suddette si calcolano a partire da una tabella di dati, chiamata dataset, che colleziona un numero colossale di immagini calcolate nei valori iniziali di istanti di tempo (nell'esempio di prima a 1, 2 e 3 secondi) e dalla risposta (ossia dall'immagine finale).
    Ma statisticamente il dataset deve essere formato da un numero consistente (colossale come tu stesso lo definisci) di dati affidabili e qui non siamo in presenza né di una quantità statisticamente rilevante, né di dati inequivocabili.
    Già in un’altra occasione ho chiarito che, per arricchire un’immagine di particolari, non è la stessa cosa fare una sola posa lunga di contro alla somma di tante pose corte, la cui somma equivalga a quella lunga.
    Diversamente da quanto asseriva il grande Totò, in questo caso non è la somma che fa il totale!

    In prima istanza penso di averti dato alcuni elementi del mio pensiero sull'argomento, resto in attesa di eventuali ulteriori chiarimenti. Io la vedo tosta!
    Ciao. Maurizio39

  9. #19
    Sole L'avatar di Gimo85
    Data Registrazione
    Aug 2015
    Località
    Trieste
    Messaggi
    899
    Taggato in
    67 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    Tra le altre cose io sottolineo che il database da cui attingerebbe la statistica sarebbe formato da tanti oggetti solo apparentemente simili, ma di fatto unici... l'implementazione dovrebbe essere una sequenza di scelte che procede per sfoltimento del database (in questo senso probabilità condizionata), fino ad identificare l'oggetto e riprodurlo nella versione memorizzata.
    Questo perché non esistono oggetti sconosciuti alla portata di un sensore commerciale. Un software del genere sarebbe comunque interessante, ma a mio avviso non produrrebbe risultati originali.
    Misurate ciò che è misurabile e rendete misurabile ciò che non lo è (Galileo Galilei)
    SW 70/400 70/700 70/900 120/1000 tutti rifrattori, tutti acromatici, tutti su equatoriale.

  10. #20
    Nana Bruna L'avatar di Maurizio_39
    Data Registrazione
    Mar 2018
    Località
    Roma
    Messaggi
    172
    Taggato in
    32 Post(s)

    Re: Simulatore d'esposizione in tempo reale

    @Gimo85
    Cercando di immedesimarmi nel concetto espresso da @francler sono ritornato alle molte esperienze fatte in campo lavorativo per lo scale-up nella progettazione degli impianti di sintesi chimica dallo stadio di laboratorio a quello di pilota, per giungere alfine alla scala industriale.
    Credo che qualcosa di simile venga proposto da francler, solo che nel mio caso si trattava di una estrapolazione dei parametri di comportamento dei sistemi usando quale variabile di estrapolazione una dimensione, mentre nel caso in esame tale estrapolazione prende come variabile il tempo.
    Questi problemi vengono normalmente affrontati proponendo innanzitutto una possibile correlazione tra i parametri che influenzano il fenomeno e poi determinando per via statistica, usando tecniche quali l’analisi di regressione, le costanti e gli esponenti che meglio si adattano al fenomeno studiato.
    Questi ultimi valgono ovviamente per la particolare configurazione studiata, cioè si lavora secondo i criteri di similitudine (geometrica, statica, dinamica, termica, ecc.).
    Ora, il primo problema da risolvere è la definizione della correlazione.
    In base alla mia esperienza, tale problema può essere risolto definendo un certo numero di parametri certi, che intervengono nel fenomeno studiato (ad es. Diametro dell’obiettivo, focale, dimensione dei pixels, tempo di esposizione, livello di dettaglio raggiungibile, seeing, ecc.) e correlarli insieme con una adeguata tecnica. Ad es. nelle correlazioni di cui mi sono interessato la tecnica usata era quella dell’Analisi Dimensionale basata sul Teorema di Buckingham che, nella prima parte asserisce che:
    La soluzione di qualsiasi equazione fisica, dimensionalmente omogenea, ha la forma
    Dove i rappresentano un set completo di gruppi adimensionali costituiti dalle variabili e dalle costanti dimensionali che intervengono nella relazione cercata.


    In parole povere, questa tecnica parte dal presupposto che una qualunque correlazione tra variabili fisiche può essere rappresentata, in modo sufficientemente accettabile, da una funzione formata dal prodotto di numeri adimensionali predeterminati in cui tali variabili compaiano.
    Un ben noto esempio di numero adimensionale usato nella tecnica idraulica è il Numero di Reynolds, mentre altri, noti agli addetti ai lavori, sono quelli di Nusselt, Prandl, Grashof, Weber, Fourier, Eulero ecc.
    Al termine di questo procedimento ci troveremo di fronte ad una relazione del tipo
    Superato però questo primo ostacolo, occorre individuare il valore della costante moltiplicativa e quello degli esponenti x, y, z, …che sono incogniti e, come detto, applicabili solo ad una data configurazione del sistema.
    Questa è la fase in cui interviene la sperimentazione o meglio, nel caso in esame, la rilevazione delle informazioni (tante) necessarie a determinare, con l’applicazione di un metodo di regressione statistico, la costante e gli esponenti incogniti.
    Ora, secondo quanto ho capito, tale fase viene svolta nei primi secondi dell’esposizione e mi sembra impensabile che, in così breve tempo, si possa accumulare il numero sufficiente di informazioni, soprattutto a livello di dettaglio necessario.
    A tutto questo si aggiunge poi che la correlazione trovata sia sufficientemente corretta e si mantenga tale da permettere una estrapolazione sulla lunga durata. In genere, infatti, queste correlazioni hanno una estensione di validità limitata, sono insomma un fac-simile della tangente usata in sostituzione della curva reale!

Discussioni Simili

  1. Rete Segnalazione Meteo in Tempo Reale!
    Di etruscastro nel forum Il cielo ad occhio nudo
    Risposte: 8
    Ultimo Messaggio: 22-11-2014, 06:37
  2. Tempo massimo di esposizione
    Di Alfiere nel forum Deep Sky
    Risposte: 7
    Ultimo Messaggio: 24-06-2014, 13:03
  3. Simulatore corpi
    Di Matteo nel forum Meccanica Celeste
    Risposte: 11
    Ultimo Messaggio: 21-05-2012, 18:48

Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •