6 Möglichkeiten, wie Sie mit Deep Learning die Benutzerfreundlichkeit mobiler Geräte verbessern können

Veröffentlicht: 2020-01-23

Angesichts der steigenden globalen Nachfrage nach verbesserten, personalisierteren mobilen Erfahrungen ist eine weit verbreitete KI- und Deep-Learning-Anpassung in der Branche der Entwicklung mobiler Apps unvermeidlich. Vergessen Sie die frustrierenden Latenzprobleme, die bei Mobile Sensing und Cloud Computing auftreten. Nahezu keine Latenz steht bevor, mit Datenverarbeitungsgeschwindigkeiten in Echtzeit, um optimale Ergebnisse zu erzielen.

Die fortschrittlichen Bionic-Smartphone-Chips von Apple mit integrierten neuronalen Verarbeitungseinheiten helfen bereits dabei, neuronale Netze mit unglaublichen Geschwindigkeiten direkt auf dem Gerät zu betreiben. Mit den Plattformen Core ML von Apple und ML Kit von Google und Deep-Learning-Bibliotheken wie TensorFlow Lite und Keras können mobile Entwickler Anwendungen mit geringerer Latenz, weniger Fehlern und schnellerer Datenverarbeitung erstellen.

Der Hauptvorteil des maschinellen Lernens auf dem Gerät besteht darin, dass es den Benutzern eine nahtlose, genaue Benutzererfahrung bietet. Da keine Daten zur Verarbeitung an externe Server gesendet werden müssen, erhalten Sie einen verbesserten Datenschutz sowie Benutzersicherheit und Privatsphäre. Außerdem müssen Sie mit neuronalen Netzwerken auf mobilen Geräten keine Verbindung zum Internet herstellen, um auf alle Funktionen Ihrer Anwendungen zuzugreifen. Für die meisten Standardfunktionen benötigen Sie natürlich weiterhin das Internet.

6 Möglichkeiten, Deep Learning auf Mobilgeräten bereitzustellen

Die Nutzung der Computing-Fähigkeiten mobiler Geräte zur Implementierung von Deep-Learning-Algorithmen hat zweifellos die Benutzerfreundlichkeit mobiler Geräte verbessert. Hier ist wie:

1. Spracherkennung auf dem Gerät

Die Spracherkennung umfasst das Transformieren oder Umwandeln von Eingabesequenzen in Ausgabesequenzen unter Verwendung von rekurrenten neuronalen Netzen (RNN), Convolutional Neural Networks (CNN), Deep Neural Networks (DNN) und anderen Architekturen. Entwickler hatten mit dem Problem der Latenz zu kämpfen – was zu Verzögerungen zwischen Ihrer Anfrage und der Antwort des automatisierten Assistenten führt – aber wir können es jetzt umgehen, indem wir die Technologie des kompakten rekurrenten neuronalen Netzwerkwandlers (RNN-T) in Mobilgeräten verwenden.

RNN-Ts sind Sequenz-zu-Sequenz-Modelle. Anstatt der üblichen Methode zu folgen, eine ganze Eingabesequenz zu verarbeiten, bevor eine Ausgabe erzeugt wird, behalten sie jedoch eine stetige Kontinuität in ihrer Eingabeverarbeitung und ihrem Ausgabe-Streaming bei. Dies erleichtert die Spracherkennung und -verarbeitung in Echtzeit. Sie sehen dies beim Google Assistant, der aufeinanderfolgende Sprachbefehle ohne Stocken verarbeiten kann und ohne dass Sie nach jeder Anfrage „Hey, Google“ aufrufen müssen.

Es sorgt für eine natürlichere, wechselseitige Konversation, und der Assistent folgt Ihren Anweisungen bis ins kleinste Detail. Möchten Sie, dass er einen E-Mail-Betreff festlegt, ein Foto in einem Ihrer Ordner findet und Sie zur Wohnung Ihrer Schwester führt? Es ist fertig.

In Zukunft mit Googles neuem Pixel 4 kann die Live-Untertitel-Funktion Audionotizen, Podcasts und Videos in Echtzeit und – da die Verarbeitung auf dem Gerät erfolgt – auch im Flugzeugmodus untertiteln. Wenn also beispielsweise ein Video in Ihrem Twitter-Feed auftaucht, können Sie anhand seiner Untertitel herausfinden, worum es geht, ohne die Stummschaltung aufheben zu müssen. Live Caption funktioniert noch nicht mit Musik oder Telefon- und Videoanrufen.

2. Effizienzsteigerung durch Gestenerkennung

Mit Pipeline-Modellen für maschinelles Lernen auf dem Gerät können Sie Ihr mobiles Gerät darauf trainieren, Hand- und Körpergesten zu erkennen, zu verfolgen und zu erkennen. Ihre Gerätekamera erfasst und speichert Ihre Gesten und Bewegungen als 3D-Bilddaten. Die Deep-Learning-Algorithmen der neuronalen Netze verwenden dann diese Gestenbibliothek, um bestimmte statische und dynamische Gesten zu identifizieren und zu entschlüsseln. Sie gleichen sie dann in Echtzeit mit Ihrer Absicht ab und führen Ihre gewünschten Befehle aus.

Die Google Pixel 4-Smartphones sind mit dem Soli-Chip ausgestattet, der eine komplexe und nonverbale Interaktion mit Ihrem Telefon ermöglicht. Dieser Miniaturradarsensor an der Oberseite des Telefons betreibt die Motion Sense-Technologie , die Ihre Anwesenheit sowie Hand- und Körpergesten erkennen kann, um Ihre Telefoninteraktionen zu ermöglichen. Mit einer Handbewegung, ohne das Telefon auch nur zu berühren, können Sie es anweisen, zu schlummern, einen Alarm stummzuschalten oder zum nächsten Titel auf Ihrer Playlist zu navigieren.

3. Immersive Fähigkeiten von Augmented Reality

Mithilfe der Plattformen ARCore von Google und ARKit von Apple können Entwickler Augmented-Reality -Apps erstellen, die digitale Objekte und Umgebungen realen Umgebungen gegenüberstellen können . Die immersiven Fähigkeiten der telefonbasierten Augmented Reality haben erhebliche Auswirkungen auf den Einzelhandel, die Unterhaltungsbranche, die Reisebranche und andere Branchen. Marken wie Lacoste und Sephora ermöglichen es ihren Kunden jetzt, Produkte mit Augmented-Reality-Apps anzuprobieren oder in der Vorschau anzuzeigen, und eine wachsende Zahl von Käufern zieht es vor, Produkte auf ihren Handys zu überprüfen, bevor sie die Kaufentscheidung treffen.

Interaktive Augmented-Reality-Spiele wie Pokemon, Ingress und Ghostbusters World haben umfangreiche Presse und eine engagierte Anhängerschaft erhalten. Wenn Sie sich in der Stadt zurechtfinden möchten, bietet Ihnen Google Maps Live View eine Echtzeit-Navigation.

4. Fotos in höherer Qualität

Eine hohe Fotoqualität ist für Käufer ein wichtiges Kriterium bei der Auswahl von Smartphones, die sie mit vielen aktuellen Modellen bekommen können. Diese sind mit den Hardwarekomponenten – Zentraleinheiten (CPUs), Bildsignalprozessoren, Deep-Learning-Bildalgorithmen und neuronalen Verarbeitungseinheiten – ausgestattet, die Smartphones beim Fotografieren in eine völlig andere Sphäre als herkömmliche Kameras katapultiert haben. Mit diesen können Smartphones auf Pixelklassifizierungsebene mehr Bewusstsein dafür zeigen, was sie sehen, um hochauflösende Fotos aufzunehmen.

Google Pixel-Smartphones und Apple iPhones verwenden mehrere Kameras und komplexe maschinelle Lernalgorithmen, um Personen und Objekte zu erkennen, Tiefenkarten zu erstellen, Langzeitbelichtungen nahtlos zu verbinden und eine genaue Farbbalance zu berechnen .

Durch das Training neuronaler Netze mit einem Bilddatensatz lernen die Algorithmen, auf individuelle Bildanforderungen zu reagieren und Fotos in Echtzeit zu retuschieren. Das von Forschern des MIT und Google entwickelte automatische Retuschiersystem ermöglicht es Fotografen, verschiedene Stile auf ein Bild anzuwenden, bevor sie überhaupt die Aufnahme machen.

Nachdem ein Faltungsnetzwerk die Bildverarbeitung bei niedriger Auflösung durchgeführt hat, modifiziert ein als affine Farbtransformation bekanntes Abbildungsverfahren die Bildpixelfarben. Das Netzwerk speichert diese Transformationsformeln in einem 3D-Raster, das dann eine hochauflösende Bildausgabe ermöglicht. Das alles geschieht innerhalb von Millisekunden.

Smartphones überflügeln DSLRs jetzt auch bei schlechten Lichtverhältnissen und Nachtaufnahmen. Durch die Integration tiefer neuronaler Netze und Sensoren können Smartphone-Kameras schärfere Bilder mit mehr Farben aufnehmen, als das menschliche Auge wahrnehmen kann.

Huawei, das mit seinem P20 Pro funktionsfähige Low-Light-Aufnahmen eingeführt hat, verwendet RYYB-Filter, große Sensoren und KI-Bildverarbeitung in seiner Mate-30-Serie, um qualitativ hochwertige Low-Light-Fotografie sowie Low-Light-Videografie anzubieten. Das Google Pixel 4 verfügt über einen Nachtsichtmodus, der Fotos im Bereich von 0,3 bis 3 Lux aufnehmen kann, und seine Astrofotografie kann einen dunklen Sternenhimmel einfangen. Zusammen mit einem Nachtmodus, der im Dunkeln automatisch aktiviert wird, passt sich das neue Deep Fusion-System von Apple an die Lichtverhältnisse an und bringt die iPhone-Fotografie auf ein beeindruckenderes Niveau.

Auch wenn Sie kein Verständnis für Fotografie haben, werden Sie mit diesen Smartphones tolle Fotos machen können.

5. Erhöhte Sicherheit und Privatsphäre

Die Einhaltung der Datenschutz-Grundverordnung (DSGVO) und des California Consumer Privacy Act (CCPA) ist durch maschinelles Lernen auf dem Gerät einfacher geworden. Es garantiert Datensicherheit, da Sie keine Daten für Biometrie, Verschlüsselung oder Live-Untertitel zur Verarbeitung auf einen Server oder eine Cloud hochladen müssen.

Die automatische Verschlüsselung auf dem Gerät ist eine weitere nützliche Smartphone-Funktion, die Ihre Inhalte mit einer PIN, einem Passwort oder einem Muster schützt und den Zugriff auf Ihre Daten nur ermöglicht, wenn Sie Ihr Telefon entsperren. Wenn Sie also Ihr Gerät verlieren oder es gestohlen wird, ist die Wahrscheinlichkeit, dass jemand Ihre Daten erhält, vernachlässigbar.

Die Face ID-Funktion des iPhones ist ein Beispiel für ein sichereres Smartphone-Erlebnis. Die geräteinternen neuronalen Netze in den Apple-Smartphone-Chips verarbeiten und speichern die Gesichtsdaten der Benutzer sicher. Die Identifizierung erfolgt auf Ihrem Gerät, sodass Ihre Privatsphäre und Sicherheit ungehindert bleiben.

Die Face Unlock-Technologie von Google Pixel 4, die durch den Soli-Chip ermöglicht wird, verwendet 3D-IR-Tiefenkartierung, um Ihre Gesichtsmodelle für die Gesichtserkennung zu erstellen, und speichert sie auf einem Titan M6-Sicherheitschip auf dem Gerät. Face Unlock funktioniert gut mit der 1Password-App, um Benutzern biometrische Sicherheit zu bieten, indem die Möglichkeit von Identitätsbetrug eliminiert wird. Um die 1Password-App auf Pixel 4 einzurichten, müssen Sie nur Ihre Daten in das Autofill eingeben und Face Unlock verwenden, um sich anstelle der Fingerprint Unlock-Funktion anzumelden.

6. Höhere Genauigkeit bei der Bilderkennung

Durch die Kombination von maschinellem Lernen auf dem Gerät mit Bildklassifizierungstechnologie können Sie in Echtzeit detaillierte Informationen zu fast allem, was Ihnen begegnet, identifizieren und abrufen. Möchten Sie einen fremdsprachigen Text lesen? Scannen Sie es mit Ihrem Telefon, um eine sofortige und genaue Übersetzung zu erhalten. Hat Ihnen ein Outfit oder ein Möbelstück gefallen? Scannen Sie es, um Informationen über den Preis und wo Sie es kaufen können, zu erhalten. Gibt es ein verlockendes neues Gericht auf der Speisekarte eines Restaurants? Sie können Ihr Telefon verwenden, um die Inhaltsstoffe und Nährwertinformationen herauszufinden.

Durch die Erleichterung der Bilderkennung in Echtzeit erhöhen Apps wie Google Lens, Calorie Mama und Leafsnap die Benutzerfreundlichkeit und Erlernbarkeit mobiler Geräte und verbessern die Benutzererfahrung.

Deep Learning auf Mobilgeräten: Abschließende Gedanken

Die Möglichkeiten des maschinellen Lernens auf dem Gerät sind immens. Mit immer effizienteren intelligenten Algorithmen, tieferen neuronalen Netzen und leistungsfähigeren KI-Chips werden mobile Deep-Learning-Anwendungen zum Standard im Bankwesen, im Einzelhandel, im Gesundheitswesen, in der Datenanalyse, in der Informationstechnologie, in der Telekommunikation, in der Luft- und Raumfahrt und in verschiedenen anderen Branchen.

Laut Verified Market Research wird der globale Deep-Learning-Markt bis 2026 voraussichtlich 26,64 Milliarden US-Dollar erreichen, wobei der Markt für Deep-Learning-Chipsatztechnologie 2,9 Milliarden US-Dollar erreichen wird. Da sich die Deep-Learning-Fähigkeiten weiter verbessern, werden sich auch die Benutzerfreundlichkeitsfunktionen mobiler Geräte weiterentwickeln und weitere Innovationen vorantreiben.

Bereit für Ihr nächstes Softwareprojekt? Nehmen Sie Kontakt mit uns auf!