Con l’iPhone 7 Apple vuole aumentare la qualità delle fotografie usando l’intelligenza artificiale

Con l’arrivo dell’iPhone 7 Apple ha apportato grandi modifiche al comparto fotografico dello smartphone, si tratta sia di cambiamenti hardware sia software e serviranno per cercare di contrastare una concorrenza che si fa sempre più agguerrita.
1

I nuovi iPhone 7 presentati da Apple sono un bel passo avanti rispetto ai predecessori, Apple ha voluto mettere in gioco un nuovo componente che funzionerà grazie al machine learning denominato “Image Sigal Processor” (ISP).
Sul palco Phil Schiller ha dichiarato che il nuovo ISP sviluppato con l’uso dell’intelligenza artificiale sarà in grado di svolgere circa 100 miliardi di operazioni in soli 25 millisecondi.
Il funzionamento della fotocamera e la presenza del nuovo chip ISP necessitano sicuramente di spiegazioni più dettagliate che potranno arrivare solamente dopo il teardown di iFixit, nel frattempo però The Verge ha provato a trarre alcune conclusioni spiegandone il funzionamento.

camera_isp_02_small_2x

Il giornalista di The Verge è partito analizzando l’immagine promozionale dell’evento Apple del 7 Settembre, su questo invito erano presenti dei cerchietti colorati leggermente sfocati con una tecnica fotografica definita bokeh.

iPhone7Intro

Il bokeh è una tecnica che viene utilizzata anche per sfocare lo sfondo di una certa immagine evidenziando quindi il soggetto in primo piano.
Ad esempio in una foto notturna l’effetto bokeh andrà a sgranare le luci sullo sfondo, così come si vede nell’invito di Apple.

Le macchine fotografiche standard possono ottenere questo effetto grazie all’apertura del sensore maggiore rispetto a quella di uno smartphone.
Questa apertura consente l’ingresso di una quantità di luce maggiore rispetto a quella che possiamo ottenere sull’iPhone.
Raggiungere lo stesso effetto su uno smartphone risulta più difficoltoso e avremmo comunque bisogno di fare delle modifiche manuali in post produzione.

Questo è il momento in cui entra in gioco intelligenza artificiale.
Apple ha infatti deciso di utilizzare l’intelligenza artificiale per comprendere il contenuto delle fotografie che scattiamo con l’iPhone, questo viene già effettuato da altre società, ad esempio Facebook è in grado di taggare in automatico le persone presenti all’interno di una immagine.
L’idea di Apple però va oltre il semplice riconoscimento di una faccia, l’azienda ha infatti voluto sviluppare un sistema che possa determinare in quale punto della foto si trova la persona fotografata e soprattutto in quale punto inizia la fusione del soggetto con lo sfondo.

apple-iphone-watch-20160907-5007-0

Quello che Apple vuole ottenere è davvero molto complicato per un computer dato che la fotografia viene semplicemente vista come un insieme di numeri che variano in base al colore.
Gli algoritmi non hanno quindi una concezione del soggetto fotografato o dello sfondo di una immagine.
Per questo motivo viene utilizzato il machine learning.
Fornendo al dispositivo migliaia di esempi il software può iniziare a comprendere meglio le varie fotografie determinando dove inizia il cielo e dove finisce l’orizzonte.

Spesso ci riferiamo a programmi di questo genere con il termine “reti neurali” perchè il processo che viene svolto è simile a quello che svolge la mente umana.
Ad esempio fornendo ad un certo software una grande quantità di foto di gatti, tramite il machine learning saremo in grado di capire con un piccolo margine di errore se una determinata immagine contiene o meno un gatto.

apple-iphone-watch-20160907-5038-0

All’interno dei nuovi iPhone è presente un software che si pone l’obiettivo di comprendere il contenuto di una certa immagine, una volta distinte le persone e gli oggetti dallo sfondo lo smartphone potrà svolgere una serie di operazioni.
Queste operazioni vanno dal settaggio automatico dell’esposizione fino al bilanciamento del bianco.
Per svolgere tutto ciò Apple aveva acquistato qualche tempo fa una società denominata Perceptio che si stava interessando proprio alla creazione di un software che permettesse il riconoscimento delle fotografie in tempo breve.

camera_lens_small_2x

Sull’iPhone 7 Plus in particolare avremo una funzionalità che permetterà di sfocare automaticamente lo sfondo della nostra fotografia, questo funzionerà perchè entrambe le lenti lavoreranno insieme per catturare 9 livelli di profondità creando quindi una “mappa di profondità”.
Con questa modalità di scatto sarà possibile ottenere delle fotografie sempre più simili a quelle che possiamo scattare con una DSLR, ovviamente il tutto sarà aiutato anche dall’apertura della fotocamera che sarà di f/1.8 che consentirà l’ingresso di una maggiore quantità di luce.

Si tratta di una grande innovazione nel campo della fotografia su smartphone e con ogni probabilità potrebbe portare Apple a produrre qualcosa che la concorrenza non è ancora stata in grado di sviluppare.
Personalmente dopo aver letto l’articolo di The Verge sono rimasto davvero stupito di questa tecnologia utilizzata da Apple e ora come ora non vedo l’ora di poter provare il nuovo iPhone 7 Plus.



Fonte: The verge


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.