Aiuto - Cerca - Utenti - Calendario - Salta a fondo pagina - Versione completa  
NikonClub.it Community > NIKON SCHOOL > Software
nippur


Come possessore della D50 pensavo che la risoluzione massima dei relativi files fosse 3008 x 2000 pixels.

Sorpresa: processando i files NEF con il freeware STEPOK RAW converter vengono generati a partire dai NEF files tiff o jpg delle dimensioni di 3039 x 2014 pixels.

Ma da dove li prenderà mai questi pixels in più (non vedo visivamente cornici o altro che possano giustificarli).

Forse i 3008 x 2000 sono, come dire, un estratto di "di sicurezza" rispetto alla reale matrice del sensore?

ciao

SiDiQ
Le mie sono solo congetture ma data la "rilevanza" della scoperta be si prestano smile.gif

a) Il sensore é relamente di dimensioni più grandi ma per motivi di qualità della demosaicizzazione e ricostruzione immagine viene effettuato un crop virtuale eliminando le zone esterne che otterrebbero valori meno significanti nella fase di interpolazione.


cool.gif Hanno fatto un crop per portare realmente il tutto a 3:2

PS: anche i nef della D80 una volta aperti con DCRAW/UFRAW "guadagnano" 6 pixel in più per lato, ma ho notato come spesso siano errati nei colori o totalmente sbagliati. Dipende.

Anche la coolpix P1 ha più pixel nel sensore di quanto poi sfornati nel JPEG.

Bah, a me bastano quelli che mi da NX basta che siano perfetti smile.gif


SiDiQ
A conferma di quanto detto sopra ho cercato notizie in rete ed ho trovato questo appunto di Dave Coffin. Riporto le sue testuali parole, ma come é ovvio questa può essere una parte della verità, resta il fatto che 10 o 50 pixel in più o in meno non cambiano proprio nulla:

"Why are dcraw output images larger than camera JPEGs?
Any algorithm that combines each pixel with its neighbors is going to have problems near the edges. C code is cheap, so dcraw applies a different algorithm to edge pixels. Hardware logic is expensive, so cameras crop off the edge pixels after processing."

In poche parole:
Perché le immagini d'uscita di dcraw (ND: ed altri convertitori) sono più grandi delle JPEG on camera ?

Tutti gli algoritmi che combinano ciascun pixel al vicino riscontrano problemi vicino agli angoli. Il codice di programmazione C (ND: usato da dcraw ed altri) é economico, cosi dcraw si può permettere di applicare un algoritmo differente su pixel degli angoli. La logia hardware (ND: integrata nelle fotocamere) is molto più costosa, così le fotocamere ritagliano i pixel d'angolo dopo il processo d'immagine.
buzz
Se volete vi sviluppo un file tiff da un RAW con il doppio del numero di pixel....

La foto vine generata per interpolazione dei valori di ogni singolo pixel con quelli adiacenti.
L'interpolazione già di fatto avviene per la generazione del colore, se poi aumentiamo le possibilità portiamo il NEF al doppio o anche più dei suoi pixel reali.
Camera RAW di Photoshop lo fa come opzione regolare.
Massimiliano_S
Credo che SiDiQ abbia centrato in pieno la motivazione del taglio. In tutti i fenomeni fisici in cui si cerca di ricostruire matematicamente qualcosa, le condizioni ai bordi sono sempre le più ostiche (almeno secondo la mia esperienza in cui mi è toccato inventarmi di tutto per far tornare le cose ai bordi... non erano foto però ma cose ben più noiose tongue.gif ). Di solito si piazzano oppurtune condizioni al contorno per risolvere il problema e si procede. Nel caso specifico della formazione d'immagine, il valore del pixel viene scelto in base a quello di quelli adiacenti. Quando si arriva ai bordi, mancano di fatto dei pixel adiacenti ed allora come fare a decidere?

a) si taglia prima senza arrivare ai bordi
cool.gif si modifica il codice in prossimità dei bordi

Personalmente preferisco la prima (lo so son pigro e non voglio spaccarmi a scrivere codice in più ma se ci pensate è la più economica perchè tanto, come era stato fatto notare giustamente, 50 pixel in più od in meno sono niente, perderci una sera, quando va bene, a scrivere dell'altro codice che funzioni...).
nippur

Ok. Grazie per le risposte.

Mi trovo perfettamente d'accordo con voi sul fatto che qualche manciata di pixel in meno non cambia nulla.

A onor del vero devo comunque dire che per quanto riguarda la costruzione qualitativa dell'immagine da parte di STEPOK converter, i pixel in più che genera non sono (qualitativamente) da buttare.
Insomma, come freeware non è male, se poi avesse qualche opzione in più..........ma poi non sarebbe più freeware biggrin.gif .
buzz
Massimiliano, quello che dici è vero, però nello specifico non credo che nemmeno un occhio superesperto e attento possa riconoscere se il bordo estremo di una foto da 6 megapizel (formato quindi da una striscia larga 1 pixel e lunga per i lperimetro dell'immagine) sia interpolata bene o male.
Non credo affatto che sia questo il motico del lì'eventuale taglio software.

Piuttosto si tratta di uso fisico dei pixel per la formazione dell'immagine.
I pixel usati per l'acquisizione sono un certo nbumero (dichiarato) e corrispondono a quelli che vengono chiamato pixel reali.
Altri pixel sono "di servizio" e bengono usati per il trasferimento dell'immagine.
Il CCD funziona in un modo un po' strano, perchè nell'arco di una frazione di secondo trasferisce i dati da una riga a quella adiacente, per poi registrare i dati riga per riga dall'ultima fila di pixel, che non concorre alla ricezione dell'immagine ma sta lì apposta a fare da casellina vuota per il trasferimento.
reefaddict
Più di un anno fa usavo talvolta raw shooter per la conversione e vidi che il numero di pixel era superiore al dichiarato per il nostro 6 Mpixel e cioè 3008x2000.

Ho fatto la tua stessa domanda e mi fu risposto che il software "ufficiale" Nikon, ma anche altri, croppano l'immagine alla risoluzione dichiarata, mentre piccoli raw converter di terze parti non croppano nulla.

A video si vede bene che ci sono effettivamente pochi pixel in più nel RAW sviluppato con certi software.

Massimiliano_S
QUOTE(buzz @ May 2 2007, 11:45 AM) *

Massimiliano, quello che dici è vero, però nello specifico non credo che nemmeno un occhio superesperto e attento possa riconoscere se il bordo estremo di una foto da 6 megapizel (formato quindi da una striscia larga 1 pixel e lunga per i lperimetro dell'immagine) sia interpolata bene o male.
Non credo affatto che sia questo il motico del lì'eventuale taglio software.

Piuttosto si tratta di uso fisico dei pixel per la formazione dell'immagine.
I pixel usati per l'acquisizione sono un certo nbumero (dichiarato) e corrispondono a quelli che vengono chiamato pixel reali.
Altri pixel sono "di servizio" e bengono usati per il trasferimento dell'immagine.
Il CCD funziona in un modo un po' strano, perchè nell'arco di una frazione di secondo trasferisce i dati da una riga a quella adiacente, per poi registrare i dati riga per riga dall'ultima fila di pixel, che non concorre alla ricezione dell'immagine ma sta lì apposta a fare da casellina vuota per il trasferimento.

Pollice.gif Sono fondamentalmente d'accordo; ignoravo il funzionamento preciso del sensore (sapevo solo che è una matrice di dispositivi ad accoppiamento di carica in cui la carica passa da uno all'altro ma ignoravo che passasse anche tra una riga e l'altra grazie.gif ). Comunque io continuo ad essere pigro in pogrammazione tongue.gif .
Salta a inizio pagina | Per vedere la versione completa del forum Clicca qui.