Samsung voleva la luna, ma ha ottenuto solo un (inutile?) "scandalo"

1 year ago 145

Si sta consumando in questi giorni un altro "scandalo-luna", sulla falsariga di quello che aveva travolto Huawei anni fa, solo che questa volta il protagonista è Samsung

Un post su Reddit di 5 giorni fa è diventato virale, grazie all'eco di molte testate internazionali. L'autore ha dimostrato in pratica che la funzione "ottimizzatore scena" della serie Samsung S23 aggiunge agli scatti della luna una quantità di dettagli che non si trovano da nessuna parte nella foto originale, dettagli che ovviamente rendono l'immagine molto più godibile, rispetto a quello che sarebbe altrimenti uno sfocato zoom lontanissimo.

Per farlo l'autore del post ha scaricato un'immagine ad alta risoluzione della luna, l'ha ridotta a 170x170 pixel e ci ha anche applicato sopra una sfocatura gaussiana. Si è quindi allontanato dal monitor, ha spento le luci, e ha zoomato fino a 60x con il suo Galaxy, ottenendo quindi la foto qui sotto.

La differenza parla da sola: l'elaborazione di Samsung ha chiaramente aggiunto "qualcosa" a uno scatto che altrimenti sarebbe stato per forza di cose sfocatissimo, e questo nonostante nella descrizione della funzione "ottimizzatore scena" non si parli esplicitamente di niente di così drastico.

Ottimizza automaticamente le impostazioni della fotocamera per rendere più luminose le scene scure, migliorare l'aspetto dei cibi e rendere più vividi i paesaggi.

L'autore ha quindi supposto che Samsung faccia ora ciò che Huawei era stata accusata di fare anni fa, cioè in pratica di mettere un overlay, di sostituire quella che sarebbe stata la vera foto della luna con una pre-costituita, forte del fatto che il nostro satellite volge sempre la stessa faccia verso la Terra, che quindi è altamente predicibile.

In realtà le cose sono un po' più complesse di così, e al di là del dettaglio tecnico, l'interpretazione finale rimane alquanto arbitraria.

Quest'oggi Samsung ha pubblicato una replica nella sua sala stampa inglese, visto appunto il clamore suscitato, spiegando ciò che avviene a livello tecnico. In estrema sintesi ecco cosa succede:

  • Le fotocamere dei Samsung Galaxy sintetizzano più di 10 immagini catturate a zoom 25x o maggiore per eliminare rumore ed esaltare limpidezza e dettagli.
  • Quando ottimizzatore scena è attivato (abbiamo già detto che è disattivabile a discrezione dell'utente?), e viene riconosciuto il soggetto "luna", la fotocamera produce un'immagine più chiara e luminosa, in aggiunta all'elaborazione del punto precedente, grazie a dei modelli di deep learning addestrati su una grande varietà di forme della luna (da quella piena alla falce) e di conseguenti dettagli.

La cosa più interessante però è forse la chiusura di tutta la replica: "Samsung continua a migliorare Ottimizzatore Scena per ridurre ogni potenziale confusione che può verificarsi tra l'atto di scattare una foto della vera luna e un'immagine qualsiasi della luna."

Come abbiamo già sottolineato, in molti hanno detto la loro su questo "scandalo luna", anche il noto youtuber Marques Brownlee, che proprio pochi mesi fa in un video breve aveva affermato che Samsung non utilizzasse overlay sulla luna, e la conclusione cui diversi sono arrivati è quella che di solito non si vorrebbe quando poniamo una domanda: un'altra domanda, ovvero cos'è una foto?

La computational photography è quella che ha rivoluzionato la fotografia mobile negli ultimi anni. Diamo a Google buona parte del merito, perché è stato il primo ad applicarla in modo "sbalorditivo" sui suoi smartphone Pixel, e da lì in poi l'azienda di Mountain View è stata seguita da tutti i concorrenti, Samsung in primis (ma anche Apple).

Del resto i telefoni hanno limiti fisici che non potranno mai essere abbattuti: la dimensione dei sensori più di tanto non può crescere, lo spazio a disposizione è quello che è (al netto di certi vistosi camera bump), e allora ecco che anziché un solo sensore ne vengono impiegati due, tre o anche quattro. Ma poi? Poi laddove l'hardware non può interviene il software, a vari livelli.

Gli smartphone riconoscono le scene da anni, e ottimizzano le foto a tantissimi livelli: esaltano il verde dell'erba, scontornano i soggetti in primo piano per simulare profondità di campo, donano calore al cibo e freddezza al cielo, smussano gli angoli del viso e le imperfezioni della pelle, ecc.

ecc. Se prendete una foto scattata da un moderno top di gamma, ma non solo, e la confrontante con quello che vedete a occhio nudo nel momento in cui l'avete scattata, avrete spesso davanti due cose diverse. Simili, ma diverse.

La domanda che possiamo porci può vertere su dove sia il confine tra "finzione" e realtà, ma la risposta difficilmente può essere oggettiva. Certo, Samsung ha marciato molto negli ultimi anni sulla capacità dei suoi Galaxy S di scattare foto alla luna, ed essere più trasparente in merito avrebbe aiutato, ma parliamo di una funzione che è attiva a discrezione dell'utente, non di qualcosa di fisso nella fotocamera.

La fotografia computazionale lavora in modi diversi a seconda del risultato da produrre e del soggetto da ritrarre, e questo della luna è solo uno dei tanti modi in cui il software ha permesso agli smartphone di andare oltre il proprio hardware.

Non vi piace il risultato? O meglio, visto che il risultato è innegabilmente migliore, lo ritenete troppo falso per i vostri standard? È un'obiezione legittima. Ricordatevi però che anche il filtro bellezza così tanto onesto non è...

Read Entire Article