6 modi in cui puoi utilizzare il Deep Learning per migliorare l'usabilità dei dispositivi mobili
Pubblicato: 2020-01-23Con una crescente domanda globale di esperienze mobili avanzate e più personalizzate, l'intelligenza artificiale diffusa e l'adattamento del deep learning nel settore dello sviluppo di app mobili sono inevitabili. Dimentica i frustranti problemi di latenza che emergono con il rilevamento mobile e il cloud computing. La latenza prossima allo zero è dietro l'angolo, con velocità di elaborazione dei dati in tempo reale per fornire risultati ottimali.
Gli avanzati chip per smartphone Bionic di Apple con unità di elaborazione neurale integrate aiutano già le reti neurali a funzionare direttamente sul dispositivo a velocità incredibili. Utilizzando le piattaforme Core ML di Apple e ML Kit di Google e le librerie di deep learning come TensorFlow Lite e Keras, gli sviluppatori mobili possono creare applicazioni con una latenza inferiore, meno errori e un'elaborazione dei dati più rapida.
Il vantaggio principale dell'apprendimento automatico sul dispositivo è che offre agli utenti un'esperienza utente precisa e senza interruzioni. Poiché non si tratta di inviare dati a server esterni per l'elaborazione, si ottiene una migliore protezione dei dati, sicurezza e privacy dell'utente. Inoltre, con le reti neurali sui dispositivi mobili, non è necessario connettersi a Internet per accedere a tutte le funzionalità delle applicazioni. Ovviamente avrai ancora bisogno di Internet per la maggior parte delle funzionalità standard.
6 modi per distribuire il deep learning sui dispositivi mobili
L'utilizzo delle capacità di elaborazione dei dispositivi mobili per implementare algoritmi di deep learning ha indubbiamente migliorato l'usabilità dei dispositivi mobili. Ecco come:
1. Riconoscimento vocale sul dispositivo
Il riconoscimento vocale implica la trasformazione o la trasduzione di sequenze di input in sequenze di output utilizzando reti neurali ricorrenti (RNN), reti neurali convoluzionali (CNN), reti neurali profonde (DNN) e altre architetture. Gli sviluppatori hanno lottato con il problema della latenza, che crea ritardi tra la tua richiesta e la risposta dell'assistente automatico, ma ora possiamo aggirarlo utilizzando la tecnologia del trasduttore di rete neurale ricorrente compatto (RNN-T) nei dispositivi mobili.
Gli RNN-T sono modelli da sequenza a sequenza. Invece di seguire il solito metodo di elaborazione di un'intera sequenza di input prima di produrre un output, tuttavia, mantengono una continuità costante nell'elaborazione dell'input e nello streaming dell'output. Ciò facilita il riconoscimento e l'elaborazione vocale in tempo reale. Lo vedi con Google Assistant, che può elaborare comandi vocali consecutivi senza esitazioni e senza che tu debba invocare "Ehi, Google" dopo ogni richiesta.
Crea una conversazione bidirezionale più naturale e l'assistente seguirà le tue istruzioni alla lettera. Vuoi che imposti un oggetto e-mail, trovi una foto in una delle tue cartelle e ti guidi a casa di tua sorella? E 'fatto.
Andando avanti con il nuovo Pixel 4 di Google, la sua funzione Live Caption può fornire sottotitoli a note audio, podcast e video in tempo reale e, poiché l'elaborazione è sul dispositivo, anche in modalità aereo. Quindi, ad esempio, se un video viene visualizzato nel tuo feed di Twitter, puoi scoprire di cosa si tratta dalle didascalie, senza dover riattivare l'audio. I sottotitoli in tempo reale non funzionano ancora con la musica o con le telefonate e le videochiamate.
2. Maggiore efficienza con il riconoscimento dei gesti
Con i modelli di pipeline di apprendimento automatico sul dispositivo, puoi addestrare il tuo dispositivo mobile a rilevare, tracciare e riconoscere i gesti della mano e del corpo. La fotocamera del tuo dispositivo registra e memorizza i tuoi gesti e movimenti come dati di immagini 3D. Gli algoritmi di deep learning delle reti neurali utilizzano quindi questa libreria di gesti per identificare e decifrare specifici gesti statici e dinamici. Quindi li abbinano in tempo reale alle tue intenzioni ed eseguono i comandi desiderati.
Gli smartphone Google Pixel 4 sono dotati del chip Soli che facilita l'interazione complessa e non verbale con il telefono. Questo sensore radar in miniatura nella parte superiore del telefono alimenta la tecnologia Motion Sense in grado di rilevare la tua presenza e i gesti delle mani e del corpo per consentire le interazioni del telefono. Con un gesto della mano, senza nemmeno toccare il telefono, puoi dirgli di posticipare, silenziare una sveglia o passare al brano successivo della playlist.
3. Capacità immersive della realtà aumentata
Utilizzando le piattaforme ARCore di Google e ARKit di Apple, gli sviluppatori possono creare app di realtà aumentata in grado di giustapporre oggetti e ambienti digitali con impostazioni di vita reale . Le capacità immersive della realtà aumentata basata sul telefono stanno avendo un impatto significativo sui settori della vendita al dettaglio, dell'intrattenimento, dei viaggi e di altri settori. Marchi come Lacoste e Sephora ora consentono ai loro clienti di provare o visualizzare in anteprima i prodotti con app di realtà aumentata e un numero crescente di acquirenti preferisce controllare i prodotti sui propri telefoni prima di prendere la decisione di acquistarli.
I giochi interattivi di realtà aumentata come Pokemon, Ingress e Ghostbusters World hanno ricevuto un'ampia stampa e un seguito dedicato. Se vuoi orientarti in città, Google Maps Live View ti fornirà la navigazione in tempo reale.
4. Fotografie di qualità superiore
L'elevata qualità delle foto è un criterio importante per gli acquirenti quando scelgono gli smartphone, che possono ottenere con molti degli ultimi modelli. Questi sono dotati dei componenti hardware - unità di elaborazione centrale (CPU), processori di segnali di immagine, algoritmi di immagini di deep learning e unità di elaborazione neurale - che hanno catapultato gli smartphone in un regno completamente diverso dalle fotocamere tradizionali quando si tratta di scattare fotografie. Con questi, gli smartphone possono mostrare una maggiore consapevolezza a livello di classificazione dei pixel di ciò che stanno vedendo per scattare fotografie ad alta definizione.

I telefoni Google Pixel e gli iPhone Apple utilizzano più fotocamere e complessi algoritmi di apprendimento automatico per riconoscere persone e oggetti, creare mappe di profondità, unire senza problemi lunghe esposizioni e calcolare un accurato bilanciamento del colore .
Addestrando le reti neurali su un set di dati di immagini, gli algoritmi imparano come rispondere ai requisiti delle singole immagini e ritoccare le fotografie in tempo reale. Sviluppato dai ricercatori del MIT e di Google, il sistema di ritocco automatico consente ai fotografi di applicare stili diversi a un'immagine prima ancora di scattare la foto.
Dopo che una rete convoluzionale ha eseguito l'elaborazione dell'immagine a bassa risoluzione, un metodo di mappatura noto come trasformazione del colore affine modifica i colori dei pixel dell'immagine. La rete memorizza queste formule di trasformazione in una griglia 3D che consente quindi un output di immagini ad alta risoluzione. Tutto avviene in pochi millisecondi.
Gli smartphone stanno ora superando le DSLR anche nella fotografia notturna e in condizioni di scarsa illuminazione. Incorporando reti neurali profonde e sensori, le fotocamere degli smartphone possono acquisire immagini più nitide con più colori di quanto l'occhio umano possa percepire.
Huawei, che ha introdotto scatti realizzabili in condizioni di scarsa illuminazione con il suo P20 Pro, utilizza filtri RYYB, sensori di grandi dimensioni ed elaborazione delle immagini AI nella sua serie Mate 30 per offrire fotografie di alta qualità, in condizioni di scarsa illuminazione e videografia in condizioni di scarsa illuminazione. Google Pixel 4 è dotato della modalità Night Sight che può scattare fotografie nell'intervallo 0,3-3 lux e la sua astrofotografia può catturare un cielo scuro e stellato. Insieme a una modalità notturna che si attiva automaticamente al buio, il nuovo sistema Deep Fusion di Apple si adatterà ai livelli di luce e porterà la fotografia dell'iPhone a un livello più impressionante.
Anche se non hai alcuna comprensione della fotografia, sarai in grado di scattare foto fantastiche con questi smartphone.
5. Maggiore sicurezza e privacy
Conformemente al regolamento generale sulla protezione dei dati (GDPR) e al California Consumer Privacy Act (CCPA) è diventato più facile con l'apprendimento automatico sul dispositivo. Garantisce la sicurezza dei dati, poiché non è necessario caricare i dati per la biometria, la crittografia o i sottotitoli in tempo reale su un server o un cloud per l'elaborazione.
La crittografia automatica sul dispositivo è un'altra utile funzione dello smartphone che protegge i tuoi contenuti con un PIN, una password o una sequenza e consente l'accesso ai tuoi dati solo quando sblocchi il telefono. Quindi, se perdi il tuo dispositivo o ti viene rubato, la possibilità che qualcuno ottenga i tuoi dati è trascurabile.
La funzione Face ID dell'iPhone è un esempio di un'esperienza smartphone più sicura. Le reti neurali del dispositivo nei chip degli smartphone Apple elaborano e archiviano in modo sicuro i dati del viso dell'utente. L'identificazione avviene sul tuo dispositivo, quindi la tua privacy e sicurezza rimangono libere.
La tecnologia Face Unlock di Google Pixel 4, facilitata dal chip Soli, utilizza la mappatura della profondità IR 3D per creare modelli di volti per il riconoscimento facciale e li memorizza su un chip di sicurezza Titan M6 sul dispositivo. Face Unlock funziona bene con l'app 1Password per offrire agli utenti sicurezza biometrica eliminando le possibilità di frode di identità. Per configurare l'app 1Password su Pixel 4, devi solo inserire i tuoi dati nella Compilazione automatica e utilizzare Face Unlock per accedere al posto della funzione Fingerprint Unlock.
6. Maggiore precisione nel riconoscimento delle immagini
Associando l'apprendimento automatico sul dispositivo alla tecnologia di classificazione delle immagini, puoi identificare e ottenere informazioni dettagliate in tempo reale su quasi tutto ciò che incontri. Vuoi leggere un testo in lingua straniera? Scansionalo con il tuo telefono per ottenere una traduzione istantanea e accurata. Un vestito o un mobile ha catturato la tua fantasia? Scansionalo per ottenere informazioni sul prezzo e dove puoi acquistarlo. C'è un nuovo piatto allettante nel menu di un ristorante? Puoi usare il tuo telefono per scoprire i suoi ingredienti e le informazioni nutrizionali.
Facilitando il riconoscimento delle immagini in tempo reale, app come Google Lens, Calorie Mama e Leafsnap stanno aumentando l'usabilità e l'apprendimento dei dispositivi mobili e migliorando l'esperienza dell'utente.
Deep learning su dispositivi mobili: considerazioni finali
Le possibilità dell'apprendimento automatico sul dispositivo sono immense. Con algoritmi intelligenti sempre più efficienti, reti neurali più profonde e chip AI più potenti, le applicazioni mobili di deep learning saranno standard nei settori bancario, retail, sanitario, analisi dei dati, tecnologia dell'informazione, telecomunicazioni, aerospaziale e vari altri.
Secondo Verified Market Research, è probabile che il mercato globale del deep learning raggiunga i 26,64 miliardi di dollari entro il 2026, con il mercato della tecnologia dei chipset di deep learning che raggiunge i 2,9 miliardi di dollari. Man mano che le capacità di deep learning continuano a migliorare, le funzionalità di usabilità dei dispositivi mobili si evolveranno insieme e alimenteranno ulteriori innovazioni.
Pronto per il tuo prossimo progetto software? Mettiti in contatto con noi!