딥 러닝을 사용하여 모바일 장치의 사용성을 개선하는 6가지 방법

게시 됨: 2020-01-23

향상되고 개인화된 모바일 경험에 대한 전 세계 수요가 증가함에 따라 모바일 앱 개발 산업에서 AI 및 딥 러닝 적응의 확산은 불가피합니다. 모바일 감지 및 클라우드 컴퓨팅에서 발생하는 답답한 대기 시간 문제는 잊어버리십시오. 실시간 데이터 처리 속도로 최적의 결과를 제공하는 거의 0에 가까운 대기 시간이 곧 다가옵니다.

신경 처리 장치가 내장된 Apple의 고급 Bionic 스마트폰 칩은 이미 신경망이 놀라운 속도로 기기에서 직접 실행되도록 지원합니다. Apple의 Core ML 및 Google의 ML Kit 플랫폼과 TensorFlow Lite 및 Keras와 같은 딥 러닝 라이브러리를 사용하여 모바일 개발자는 더 짧은 지연 시간, 더 적은 오류, 더 빠른 데이터 처리로 애플리케이션을 만들 수 있습니다.

온디바이스 머신 러닝의 주요 장점은 사용자에게 원활하고 정확한 사용자 경험을 제공한다는 것입니다. 처리를 위해 데이터를 외부 서버로 보내는 데 문제가 없으므로 데이터 보호와 사용자 보안 및 개인 정보가 향상됩니다. 또한 모바일 장치의 신경망을 사용하면 응용 프로그램의 모든 기능에 액세스하기 위해 인터넷에 연결할 필요가 없습니다. 물론 대부분의 표준 기능을 사용하려면 여전히 인터넷이 필요합니다.

모바일 장치에 딥 러닝을 배포하는 6가지 방법

딥 러닝 알고리즘을 구현하기 위해 모바일 장치 컴퓨팅 기능을 사용하면 의심할 여지 없이 모바일 장치의 사용성이 향상되었습니다. 방법은 다음과 같습니다.

1. 온디바이스 음성 인식

음성 인식에는 순환 신경망(RNN), 컨볼루션 신경망(CNN), 심층 신경망(DNN) 및 기타 아키텍처를 사용하여 입력 시퀀스를 출력 시퀀스로 변환하거나 변환하는 작업이 포함됩니다. 개발자는 요청과 자동 어시스턴트의 응답 사이에 지연을 생성하는 지연 문제로 어려움을 겪었지만 이제 모바일 장치에서 소형 RNN-T(Recurrent Neural Network Transducer) 기술을 사용하여 이 문제를 해결할 수 있습니다.

RNN-T는 시퀀스 대 시퀀스 모델입니다. 그러나 출력을 생성하기 전에 전체 입력 시퀀스를 처리하는 일반적인 방법을 따르는 대신 입력 처리 및 출력 스트리밍에서 안정적인 연속성을 유지합니다. 이는 실시간 음성 인식 및 처리를 용이하게 합니다. Google 어시스턴트를 사용하면 흔들리지 않고 각 요청 후에 'Hey, Google'을 호출할 필요 없이 연속적인 음성 명령을 처리할 수 있습니다.

보다 자연스러운 양방향 대화가 가능하며 어시스턴트가 T에게 귀하의 지시를 따릅니다. 이메일 제목을 설정하고 폴더 중 하나에서 사진을 찾고 자매의 집으로 안내해 주기를 원하십니까? 끝났다.

Google의 새로운 Pixel 4에서는 라이브 캡션 기능을 통해 실시간으로 오디오 메모, 팟캐스트 및 비디오에 자막을 제공할 수 있으며 비행기 모드에서도 처리가 기기에서 이루어지기 때문에 자막을 제공할 수 있습니다. 예를 들어 비디오가 트위터 피드에 표시되면 오디오를 음소거 해제할 필요 없이 캡션에서 내용을 찾을 수 있습니다. 라이브 캡션은 아직 음악이나 전화 및 화상 통화에서 작동하지 않습니다.

2. 제스처 인식으로 효율성 향상

온디바이스 머신 러닝 파이프라인 모델을 사용 하면 손과 몸 제스처를 감지, 추적 및 인식하도록 모바일 디바이스를 훈련할 수 있습니다. 장치 카메라는 제스처와 움직임을 3D 이미지 데이터로 기록하고 저장합니다. 그런 다음 신경망의 딥 러닝 알고리즘은 이 제스처 라이브러리를 사용하여 특정 정적 및 동적 제스처를 식별하고 해독합니다. 그런 다음 실시간으로 의도와 일치시키고 원하는 명령을 실행합니다.

Google Pixel 4 스마트폰에는 휴대폰과의 복잡하고 비언어적인 상호 작용을 용이하게 하는 Soli 칩이 함께 제공됩니다. 휴대전화 상단에 있는 이 소형 레이더 센서는 사용자의 존재와 손 및 몸짓을 감지하여 휴대전화 상호작용을 가능하게 하는 Motion Sense 기술 을 지원합니다. 손을 흔드는 것만으로도 전화를 건드리지 않고도 일시 중지, 알람 음소거 또는 재생 목록의 다음 노래로 이동할 수 있습니다.

3. 증강현실의 몰입도

개발자는 Google의 ARCore 및 Apple의 ARKit 플랫폼을 사용하여 디지털 개체 및 환경을 실제 설정과 병치 할 수 있는 증강 현실 앱을 구축할 수 있습니다. 전화 기반 증강 현실의 몰입형 기능은 소매, 엔터테인먼트, 여행 및 기타 산업에 상당한 영향을 미치고 있습니다. Lacoste 및 Sephora와 같은 브랜드는 이제 고객이 증강 현실 앱을 사용하여 제품을 시험해 보거나 미리 볼 수 있도록 하고 있으며 점점 더 많은 쇼핑객이 구매 결정을 내리기 전에 휴대폰으로 제품을 확인하는 것을 선호합니다.

Pokemon, Ingress 및 Ghostbusters World와 같은 대화형 증강 현실 게임은 광범위한 언론과 열성적인 추종자를 받았습니다. 시내에서 길을 찾고 싶다면 Google 지도 라이브 뷰가 실시간 내비게이션을 제공합니다.

4. 고품질 사진

높은 사진 품질은 구매자가 스마트폰을 선택할 때 중요한 기준이며 많은 최신 모델에서 얻을 수 있습니다. 여기에는 중앙 처리 장치(CPU), 이미지 신호 프로세서, 딥 러닝 이미지 알고리즘 및 신경 처리 장치와 같은 하드웨어 구성 요소가 장착되어 있어 스마트폰을 사진 촬영에 있어 기존 카메라와 완전히 다른 영역으로 끌어올렸습니다. 이를 통해 스마트폰은 고화질 사진을 촬영하기 위해 보고 있는 것을 픽셀 분류 수준에서 더 많이 인식할 수 있습니다.

Google Pixel 휴대전화와 Apple iPhone은 여러 대의 카메라와 복잡한 기계 학습 알고리즘을 사용하여 사람과 사물을 인식하고, 깊이 지도를 만들고, 장노출을 매끄럽게 연결하고, 정확한 색상 균형을 계산합니다 .

알고리즘은 이미지 데이터 세트에서 신경망을 훈련함으로써 개별 이미지 요구 사항에 응답하고 실시간으로 사진을 수정하는 방법을 배웁니다. MIT와 Google의 연구원이 개발한 자동 보정 시스템을 통해 사진 작가는 사진을 찍기도 전에 이미지에 다양한 스타일을 적용할 수 있습니다.

합성곱 네트워크가 저해상도에서 이미지 처리를 수행한 후 아핀 색상 변환으로 알려진 매핑 방법이 이미지 픽셀 색상을 수정합니다. 네트워크는 이러한 변환 공식을 3D 그리드에 저장하여 고해상도 이미지 출력을 가능하게 합니다. 모두 밀리초 이내에 발생합니다.

스마트폰은 이제 저조도 및 야간 사진에서도 DSLR을 능가하고 있습니다. 심층 신경망과 센서를 통합함으로써 스마트폰 카메라는 인간의 눈이 인식할 수 있는 것보다 더 많은 색상으로 더 선명한 이미지를 캡처할 수 있습니다.

P20 Pro로 실행 가능한 저조도 사진을 도입한 화웨이는 Mate 30 시리즈에 RYYB 필터, 대형 센서 및 AI 이미지 처리를 사용하여 저조도 비디오뿐만 아니라 고품질의 저조도 사진을 제공합니다. Google Pixel 4에는 0.3~3lux 범위의 사진을 찍을 수 있는 야간 모드가 있으며 천체 사진은 어둡고 별이 빛나는 하늘을 캡처할 수 있습니다. 어둠 속에서 자동으로 활성화되는 야간 모드와 함께 Apple의 새로운 Deep Fusion 시스템은 조명 수준에 따라 조정되어 iPhone 사진을 더욱 인상적인 수준으로 끌어올립니다.

사진에 대한 이해가 없어도 이 스마트폰으로 멋진 사진을 찍을 수 있습니다.

5. 보안 및 개인 정보 보호 강화

일반 데이터 보호 규정(GDPR) 및 캘리포니아 소비자 개인 정보 보호법(CCPA) 준수는 온디바이스 머신 러닝으로 더 쉬워졌습니다. 생체 인식, 암호화 또는 라이브 캡션을 위한 데이터를 처리를 위해 서버나 클라우드에 업로드할 필요가 없기 때문에 데이터 보안을 보장합니다.

기기 내 자동 암호화는 PIN, 비밀번호 또는 패턴으로 콘텐츠를 보호하고 휴대전화의 잠금을 해제할 때만 데이터에 액세스할 수 있는 또 다른 유용한 스마트폰 기능입니다. 따라서 장치를 분실하거나 도난당한 경우 다른 사람이 데이터를 얻을 가능성은 무시할 수 있습니다.

iPhone의 Face ID 기능 은 보다 안전한 스마트폰 경험의 한 예입니다. Apple 스마트폰 칩의 온디바이스 신경망은 사용자 얼굴 데이터를 처리하고 안전하게 저장합니다. 식별은 장치에서 이루어지므로 개인 정보와 보안이 방해받지 않습니다.

Soli 칩이 지원하는 Google Pixel 4의 얼굴 잠금 해제 기술은 3D IR 깊이 매핑을 사용하여 얼굴 인식을 위한 얼굴 모델을 만들고 기기의 Titan M6 보안 칩에 저장합니다. 얼굴 잠금 해제는 1Password 앱과 잘 작동하여 신원 사기의 가능성을 제거함으로써 사용자에게 생체 인식 보안을 제공합니다. Pixel 4에서 1Password 앱을 설정하려면 자동 완성에 세부 정보를 입력하고 지문 잠금 해제 기능 대신 얼굴 잠금 해제를 사용하여 로그인하면 됩니다.

6. 이미지 인식의 정확도 향상

온디바이스 머신 러닝과 이미지 분류 기술을 결합하면 접하는 거의 모든 것에 대한 자세한 정보를 실시간으로 식별하고 얻을 수 있습니다. 외국어 텍스트를 읽고 싶습니까? 휴대폰으로 스캔하여 즉각적이고 정확한 번역을 받으세요. 의상이나 가구가 마음에 들었습니까? 스캔하여 가격과 구입처에 대한 정보를 얻으십시오. 레스토랑 메뉴에 유혹적인 새로운 요리가 있습니까? 휴대전화를 사용하여 성분과 영양 정보를 확인할 수 있습니다.

Google Lens, Calorie Mama 및 Leafsnap과 같은 앱은 실시간으로 이미지 인식을 촉진하여 모바일 장치의 사용성과 학습성을 높이고 사용자 경험을 향상시키고 있습니다.

모바일 장치에서의 딥 러닝: 최종 생각

온디바이스 머신 러닝의 가능성은 무궁무진합니다. 점점 더 효율적인 지능형 알고리즘, 심층 신경망, 더욱 강력한 AI 칩을 통해 딥 러닝 모바일 애플리케이션은 은행, 소매, 의료, 데이터 분석, 정보 기술, 통신, 항공 우주 및 기타 다양한 산업의 표준이 될 것입니다.

Verified Market Research에 따르면 전 세계 딥 러닝 시장은 2026년까지 266억 4000만 달러, 딥 러닝 칩셋 기술 시장은 29억 달러에 이를 것으로 예상됩니다. 딥 러닝 기능이 계속 향상됨에 따라 모바일 장치의 사용성 기능도 함께 발전하고 더 많은 혁신을 촉진할 것입니다.

다음 소프트웨어 프로젝트에 대한 준비가 되셨습니까? 저희에게 연락하십시오!