Top 43 텐서 플로우 라이트 All Answers

You are looking for information, articles, knowledge about the topic nail salons open on sunday near me 텐서 플로우 라이트 on Google, you do not find the information you need! Here are the best content compiled and compiled by the toplist.Experience-Porthcawl.com team, along with other related topics such as: 텐서 플로우 라이트 안드로이드 텐서플로우 라이트, TensorFlow Lite GitHub, tensorflow lite란, Tensorflow GitHub, TensorFlow js, 텐서플로우 코리아


1장 안드로이드와 텐서플로 라이트 입문
1장 안드로이드와 텐서플로 라이트 입문


Tensorflow lite (TFlite)란? : 네이버 블로그

  • Article author: m.blog.naver.com
  • Reviews from users: 31457 ⭐ Ratings
  • Top rated: 4.1 ⭐
  • Lowest rated: 1 ⭐
  • Summary of article content: Articles about Tensorflow lite (TFlite)란? : 네이버 블로그 텐서플로우 라이트 (TFlite)는 기기 내 추론을 위한 오픈소스 딥러닝 프레임 워크이다. · ​ · Tensorflow 사이트에 더욱 친절한 설명이 있다. …
  • Most searched keywords: Whether you are looking for Tensorflow lite (TFlite)란? : 네이버 블로그 텐서플로우 라이트 (TFlite)는 기기 내 추론을 위한 오픈소스 딥러닝 프레임 워크이다. · ​ · Tensorflow 사이트에 더욱 친절한 설명이 있다.
  • Table of Contents:

카테고리 이동

모두의 블로그

이 블로그 
안드로이드
 카테고리 글

카테고리

이 블로그 
안드로이드
 카테고리 글

Tensorflow lite (TFlite)란? : 네이버 블로그
Tensorflow lite (TFlite)란? : 네이버 블로그

Read More

Tensorflow lite (TFlite)란? : 네이버 블로그

  • Article author: medium.com
  • Reviews from users: 26063 ⭐ Ratings
  • Top rated: 3.4 ⭐
  • Lowest rated: 1 ⭐
  • Summary of article content: Articles about Tensorflow lite (TFlite)란? : 네이버 블로그 이제 안드로이드 기기에 저장된 사진을 가져와 추론 데이터로 활용하는 방법을 알아보자. 일단 앱 UI부터 구성할 것이다. 대략적인 flow는 다음과 같다. …
  • Most searched keywords: Whether you are looking for Tensorflow lite (TFlite)란? : 네이버 블로그 이제 안드로이드 기기에 저장된 사진을 가져와 추론 데이터로 활용하는 방법을 알아보자. 일단 앱 UI부터 구성할 것이다. 대략적인 flow는 다음과 같다.
  • Table of Contents:

카테고리 이동

모두의 블로그

이 블로그 
안드로이드
 카테고리 글

카테고리

이 블로그 
안드로이드
 카테고리 글

Tensorflow lite (TFlite)란? : 네이버 블로그
Tensorflow lite (TFlite)란? : 네이버 블로그

Read More

텐서플로 라이트를 활용한 안드로이드 딥러닝

  • Article author: www.hanbit.co.kr
  • Reviews from users: 35732 ⭐ Ratings
  • Top rated: 4.4 ⭐
  • Lowest rated: 1 ⭐
  • Summary of article content: Articles about 텐서플로 라이트를 활용한 안드로이드 딥러닝 텐서플로 라이트를 활용해 모바일 환경에서 딥러닝을 연동하는 방법을 안내하는 … TAG : TFlite ,머신러닝 ,기계학습 ,딥러닝 ,andro ,tensorflow ,텐서플로우 … …
  • Most searched keywords: Whether you are looking for 텐서플로 라이트를 활용한 안드로이드 딥러닝 텐서플로 라이트를 활용해 모바일 환경에서 딥러닝을 연동하는 방법을 안내하는 … TAG : TFlite ,머신러닝 ,기계학습 ,딥러닝 ,andro ,tensorflow ,텐서플로우 … TFlite,머신러닝,기계학습,딥러닝,android,tensorflow,텐서플로우,tensorflow lite 온디바이스,ondevice,엣지 컴퓨팅,Java텐서플로 라이트를 활용해 모바일 환경에서 딥러닝을 연동하는 방법을 안내하는 도서. 텐서플로 라이트에서 제공하는 모델 및 딥러닝의 경량화 등을 그림을 이용해 설명한다.
  • Table of Contents:

인기 검색어 (최근 1개월간)

파트1) 안드로이드와 텐서플로 라이트 입문

파트2) 처음 만드는 안드로이드 앱

파트3) 안드로이드 앱 UI 구성

파트4) 텐서플로 라이트 모델 개발

파트5) 텐서플로 라이트 모델을 이용한 안드로이드 앱 개발

파트6) 프레임워크를 활용한 이미지 분류 앱 개발

파트7) 실시간 이미지 처리

파트8) 텐서플로 라이트 모델의 성능 개선

파트9) 텐서플로 라이트 모델 최적화

마치며

0 머신러닝 그 공허함

1 한 권으로 시작하자!

2 아쉬움은

3 스터디에 좋다!

텐서플로 라이트를 활용한 안드로이드 딥러닝
텐서플로 라이트를 활용한 안드로이드 딥러닝

Read More

TensorFlow Lite 소개 – 취미로 코딩하는 개발자

  • Article author: devinlife.com
  • Reviews from users: 30638 ⭐ Ratings
  • Top rated: 3.5 ⭐
  • Lowest rated: 1 ⭐
  • Summary of article content: Articles about TensorFlow Lite 소개 – 취미로 코딩하는 개발자 TensorFlow Lite는 TensorFlow 모델을 휴대폰, embedded 나 IOT 기기에서 구동하기 위해서 ML 툴이다. Mobile과 IOT 기기를 위해서 TensorFlow를 … …
  • Most searched keywords: Whether you are looking for TensorFlow Lite 소개 – 취미로 코딩하는 개발자 TensorFlow Lite는 TensorFlow 모델을 휴대폰, embedded 나 IOT 기기에서 구동하기 위해서 ML 툴이다. Mobile과 IOT 기기를 위해서 TensorFlow를 … TensorFlow Lite는 TensorFlow와 어떻게 다른가?
  • Table of Contents:

Skip links

TensorFlow Lite 소개

1 Edge ML(Machine learning at the edge)

2 TF Lite 주요 특징

3 TF Lite 개발 workflow

4 TF Lite 개발 workflow 연습

일반 사용자 계정으로 Docker 실행하기

Docker로 postgreSQL Database 설치하기

토렌트(마그넷) 자동 다운로드 프로젝트 – torrent_web_scraper

TFLite 모델 Inference(배포하기)

TensorFlow Lite 소개 - 취미로 코딩하는 개발자
TensorFlow Lite 소개 – 취미로 코딩하는 개발자

Read More

TensorFlow Lite (Android)를 사용하여 커스텀 객체 감지 모델 빌드 및 배포  |  Google Developers

  • Article author: developers.google.com
  • Reviews from users: 18910 ⭐ Ratings
  • Top rated: 4.6 ⭐
  • Lowest rated: 1 ⭐
  • Summary of article content: Articles about TensorFlow Lite (Android)를 사용하여 커스텀 객체 감지 모델 빌드 및 배포  |  Google Developers 이 Codelab에서는 이미지에서 객체를 감지할 수 있는 Andro 앱을 빌드합니다. 먼저 TFLite Model Maker를 사용하여 커스텀 객체 감지 모델을 학습시킨 다음 TFLite … …
  • Most searched keywords: Whether you are looking for TensorFlow Lite (Android)를 사용하여 커스텀 객체 감지 모델 빌드 및 배포  |  Google Developers 이 Codelab에서는 이미지에서 객체를 감지할 수 있는 Andro 앱을 빌드합니다. 먼저 TFLite Model Maker를 사용하여 커스텀 객체 감지 모델을 학습시킨 다음 TFLite … 이 Codelab에서는 이미지에서 객체를 감지할 수 있는 Android 앱을 빌드합니다. 먼저 TFLite Model Maker를 사용하여 커스텀 객체 감지 모델을 학습시킨 다음 TFLite 태스크 라이브러리를 사용하여 배포합니다.
  • Table of Contents:

1 시작하기 전에

기본 요건

과정 내용

준비물

2 객체 감지

TensorFlow Lite

3 설정

코드 다운로드

시작 앱 가져오기

시작 앱 실행

4 시작 앱 이해

5 기기 객체 감지 추가

선행 학습된 TFLite 객체 감지 모델 다운로드

시작 앱에 모델 추가

Gradle 파일 작업 라이브러리 종속 항목 업데이트

프로젝트를 Gradle 파일과 동기화하기

이미지에서 기기 객체 감지 설정 및 실행

이미지 객체 만들기

검사 프로그램 인스턴스 만들기

검사 프로그램에 피드 이미지

감지 결과 인쇄

6 입력 이미지에 감지 결과 그리기

7 커스텀 객체 감지 모델 학습

Colaboratory

8 맞춤 TFLite 모델을 Android 앱에 통합

9 축하합니다

TensorFlow Lite (Android)를 사용하여 커스텀 객체 감지 모델 빌드 및 배포  |  Google Developers
TensorFlow Lite (Android)를 사용하여 커스텀 객체 감지 모델 빌드 및 배포  |  Google Developers

Read More

텐서플로우라이트 – CIO Korea

  • Article author: www.ciokorea.com
  • Reviews from users: 1509 ⭐ Ratings
  • Top rated: 4.9 ⭐
  • Lowest rated: 1 ⭐
  • Summary of article content: Articles about 텐서플로우라이트 – CIO Korea 구글이 기존 텐서플로우 모델을 텐서플로우 라이트 포맷으로 손쉽게 변환할 수 있는 툴 텐서플로우 라이트 모델 메이커(TensorFlow Lite Model Maker)를 14일 발표했다 … …
  • Most searched keywords: Whether you are looking for 텐서플로우라이트 – CIO Korea 구글이 기존 텐서플로우 모델을 텐서플로우 라이트 포맷으로 손쉽게 변환할 수 있는 툴 텐서플로우 라이트 모델 메이커(TensorFlow Lite Model Maker)를 14일 발표했다 … CIO는 전 세계 비즈니스 리더들의 성공경험을 공유하고 테크놀로지 리더들에게 변화하는 역할모델을 제시하며 테크놀로지 비즈니스 리더들에 특화된 네트워킹 기회 창출을 제시합니다.
  • Table of Contents:
텐서플로우라이트 - CIO Korea
텐서플로우라이트 – CIO Korea

Read More

Tensorflow Lite 제대로 이해하기 | CodingBucks Dev Blog

  • Article author: junimnjw.github.io
  • Reviews from users: 5204 ⭐ Ratings
  • Top rated: 3.9 ⭐
  • Lowest rated: 1 ⭐
  • Summary of article content: Articles about Tensorflow Lite 제대로 이해하기 | CodingBucks Dev Blog 이번 포스트는 텐서플로우를 사용해서 모델을 학습하고 저장하는데 익숙하다는 전제에서 설명하려고 합니다. 이 부분에 대해서 잘 모르시는 분은 관련 … …
  • Most searched keywords: Whether you are looking for Tensorflow Lite 제대로 이해하기 | CodingBucks Dev Blog 이번 포스트는 텐서플로우를 사용해서 모델을 학습하고 저장하는데 익숙하다는 전제에서 설명하려고 합니다. 이 부분에 대해서 잘 모르시는 분은 관련 … 이번 포스트는 텐서플로우를 사용해서 모델을 학습하고 저장하는데 익숙하다는 전제에서 설명하려고 합니다. 이 부분에 대해서 잘 모르시는 분은 관련 내용을 먼저 학습 후 읽어보시길 권장드립니다
  • Table of Contents:

들어가며

본문

결론

참고문헌

CodingBucks Dev Blog

Tensorflow Lite 제대로 이해하기 | CodingBucks Dev Blog
Tensorflow Lite 제대로 이해하기 | CodingBucks Dev Blog

Read More

텐서플로우라이트 – ITWorld Korea

  • Article author: www.itworld.co.kr
  • Reviews from users: 7149 ⭐ Ratings
  • Top rated: 4.4 ⭐
  • Lowest rated: 1 ⭐
  • Summary of article content: Articles about 텐서플로우라이트 – ITWorld Korea 구글은 I/O 개발자 컨퍼런스 기조연설에서 스마트폰 등 모바일 기기에서 실행될 머신러닝 프레임워크인 텐서플로우 라이트(TensorFlow Lite)를 발표했다. …
  • Most searched keywords: Whether you are looking for 텐서플로우라이트 – ITWorld Korea 구글은 I/O 개발자 컨퍼런스 기조연설에서 스마트폰 등 모바일 기기에서 실행될 머신러닝 프레임워크인 텐서플로우 라이트(TensorFlow Lite)를 발표했다. PC World, Computer World 등 글로벌 미디어의 콘텐츠. 테크놀로지 리더들의 실무 의사결정에 도움이 되는 정보 제공.
  • Table of Contents:
텐서플로우라이트 - ITWorld Korea
텐서플로우라이트 – ITWorld Korea

Read More


See more articles in the same category here: toplist.Experience-Porthcawl.com/blog.

Tensorflow lite (TFlite)란?

안드로이드 개발과 머신러닝을 조금씩 맛보면서 앞으로 모바일 시대에서 머신러닝이 모바일 안으로 들어오는 건 당연한 일이라고 생각된다.

홈페이지에서 TFlite의 장점을 다음과 같이 설명한다.

지연 시간: 서버까지의 왕복이 없습니다.

개인 정보 보호: 데이터가 기기를 벗어나지 않아도 됩니다.

연결: 인터넷 연결이 필요하지 않습니다.

전력 소비: 네트워크 연결에는 전력이 필요합니다.

TFLite의 기본적인 튜토리얼을 잘 정리해 주신 블로그가 있는데, 이런 순서로 TFlite의 안드로이드 적용이 이루어진다고 한다.

PC에서 모델을 학습한다.

학습한 모델을 텐서플로 라이트 버전으로 변환한다.

안드로이드 프로젝트를 생성한다.

assets 폴더를 만들고 모델 파일을 붙여 넣는다.

텐서플로 라이트 모듈을 사용할 수 있도록 gradle 파일에 내용을 추가한다.

gradle 파일을 수정해서 모델 파일이 압축되지 않도록 한다.

gradle 파일을 수정했으니까 동기화를 진행한다.

tflite 모델 파일을 로딩하고 run 함수를 호출해서 결과를 가져온다.

안드로이드 화면을 구성하고 코드를 추가해서 결과를 표시한다.

출처: https://pythonkim.tistory.com/131?category=703510 [파이쿵]

나도 기본적인 TFlite 예제를 틈틈이 해보면서 업로드해보겠다.

텐서플로 라이트를 활용한 안드로이드 딥러닝

텐서플로 라이트를 활용한 안드로이드 딥러닝

이제 모바일에도 본격적으로 AI가 상륙한다!!

이 책은 안드로이드 앱에서 딥러닝 모델을 활용하는 방법을 다룹니다.

이 책을 읽으려면 자바와 파이썬 언어에 대한 기본적인 지식이 필요합니다.

자바와 파이썬 언어에 익숙하지 않은 독자는 사전 지식을 갖춘 뒤 이 책을 읽기 바랍니다.

앱 개발 경험이 있는 안드로이드 개발자라면 이 책을 통해

스스로 만든 앱에 딥러닝 모델을 배포하여 활용하는 방법을 익힐 수 있습니다.

또한 딥러닝 모델 개발 경험이 있는 AI 엔지니어라면

직접 개발한 모델을 안드로이드 환경에서 서비스하는 방법을 배울 수 있습니다.

텐서플로 라이트를 활용한 안드로이드 딥러닝 中

요즘 앱 개발에 관심을 조금 멀리하였더니 어느새 텐서플로 적용 서적까지 나왔네요 ^^

이제 앱, 웹에도 인공지능 적용 시대!

같이 한번 시작해볼까요?

참고로 이 서적은 자바/파이썬 기본 이상의 지식과 안드로이드 개발 경험이

필수라고 생각하지만, 쉽게 따라 할 수 있게 구성되어 있습니다.

다만 속도가 많이 느릴 수 있으니 참고 부탁드립니다.

DAY 1, 2, 3

안드로이드 텐서플로 라이트 입문/개발 기초

파트 1 ~ 5

앱 개발 + 인공지능

드디어 안드로이드와 인공지능의 만남! 기다렸습니다 🙂 리뷰 시작해보겠습니다~~~

일단, 책장을 넘기자마자 알록달록 이쁘게 꾸며진 디자인에 미소를 짓게 되었습니다. “아니, 너무 이쁘잖아?”

처음 보시는 분들은 조금 어렵고 생소한 내용이 많겠지만, 안드로이드에 관심이 많은 저는 더 작고, 더 가벼운 모바일, 에지 기기용 머신러닝 기술이 들어간 앱을 드디어 개발 가능하겠구나!라는 생각에 즐겁게 리뷰할 수 있었습니다.

책 구성도 훌륭하고 무엇보다 궁금한 곳을 시원하게 긁어주는 안드로이드용 인공지능 시작의 좋은 길잡이가 되어주는 서적이 아닐까 싶습니다.

1장은 안드로이드와 텐서플로 앱 개발의 워크플로우와 환경 구축에 대하여 진행합니다, 천천히 읽고 따라 하시면 무리 없는 챕터이나 설치에 시간이 좀 소요될 것입니다. 참고 부탁드립니다!

2장부터 본격적으로 소스코드 작성 및 개발에 대한 기초 지식에 대하여 나옵니다. 언어는 자바를 위주로 설명하고 있고 안드로이드를 자바로 익혀두면 코틀린 역시 금방 익힐 수 있으니, 자바를 기준으로 활용해보시길 바랍니다. 물론 자바가 쉬운 언어는 아니지만요 ^^;;

안드로이드 빌드 프로세스, 실제 기기로 테스팅하는 방법까지 마무리하고 나면 2장도 종료됩니다.

2장부터 집중하시면 좋습니다. 아직까지 큰 무리는 없을 것 같네요!

3장부터는 레이아웃 배치, 외부 컴포넌트 불러오는 학습을 진행합니다. UI 구성은 앱 구성에서 정말 중요한 부분이죠.

안드로이드 레이아웃, 위젯, 액티비티는 가장 기초적인 지식이자 필수 지식입니다. 이벤트를 받는 방법도 나오니 꼭 복붙하지 마시고 소스코드를 성실하게 작성해보세요! 신기한 경험이 펼쳐집니다 🙂

4~5장부터는 저도 흥미롭게 진행할 수 있었습니다. 드디어 텐서플로 라이트 모델 개발 워크플로우부터 기기 배포까지 실습을 진행하는 곳입니다 ^^

딥러닝 모델을 개발하고 이를 텐서플로 라이트 모델로 변환하는 방법은 생각보다 쉽지 않았습니다, 많이 접한 툴과 언어지만 계속 봐도 어려운 분야는 맞는 것 같네요 ^^ 머신러닝, 딥러닝 분야는 정말 많은 공부를 해야 될 것 같습니다. 열공 시작 챕터입니다!

5장까지 간단한 텐서플로 라이트 모델을 이용하여 간단한 앱 개발 프로세스를 진행하고 나면, 조금 진이 빠질 것입니다.

아, 생각보다 난이도가 좀 있죠?ㅎㅎ 생성한 이미지를 모델의 입력 텐서 형태에 맞게 전처리하고, 이를 모델에 입력하여 추론 결과를 받아 해석하는 방법까지 다룹니다. 어렵습니다~~ 그래도 재미있습니다! 이제 앱을 만들어보러 고고싱 해볼까요?

DAY 4, 5, 6

데이터, 라이브러리의 활용

파트 6 ~ 7

데이터와 로직 그리고 실시간 처리

6장부터는 실제로 갤러리에 저장된 이미지와 직접 촬영한 이미지를 활용하는 방법과 실시간으로 추론 결과를 확인하는 방법에 대하여 다룹니다. ImageNet 데이터를 사용하고, 모델 활용 로직을 더 효율적으로 구현하기 위해 텐서플로 라이트 서포트 라이브러리를 적용합니다.

안드로이드 기기에 탑재된 다양한 프레임워크를 이용하여 이미지를 얻고 이를 딥러닝 모델로 처리하는 실습을 진행합니다.

안드로이드 개발도 쉽지 않은데 인공지능까지 얹어서 진행하려고 하니! 생각보다 진땀이군요 ^^;;

실시간으로 이미지를 처리하는 챕터에선 Camera2 API의 처리 프로세스를 파악하고 API를 이용하여 실시간으로 카메라의 이미지를 받아오는 방법에 대하여 다룹니다.

또한 모델의 입력 이미지 크기에 따라 카메라의 이미지 크기를 최적화하고, 핸들러스레드를 이용한 비동기 처리를 적용하여 실시간 이미지 처리를 구현합니다.

어려운 단어도 많고 로직도 쉽지 않아 저 포함 많은 초보자분들이 많은 애를 먹을 것 같은 6, 7챕터 ^^

아무래도 인공지능 영역이다 보니, 천천히 진행해보려고 합니다~~!! Opencv 기술과는 또 다른 매력이 있군요!

DAY 7, 8, 9

모델의 추론 성능을 측정하고 최적화까지

파트 8 ~ 9

성능 개선과 최적화

8장에서는 안드로이드 기기에서 모델의 추론 성능을 개선하는 방법을, 9장에서는 텐서플로 라이트 모델을 최적화하는 방법을 알아보는 챕터입니다.

추론 성능을 측정하는 코드를 구현하고 CPU의 멀티 스레드, GPU 위임, NNAPI 위임을 각각 구현하여 성능을 비교합니다.

구현이 1차 목표라면 아무래도 성능을 측정하고 개선하는 것은 2차 목표겠죠? 어려워도 꼭 정독하고 코드를 작성하고 넘어가 봅시다 ^^

이후 텐서플로 라이트 모델을 최적화하는 방법을 살펴보는 마지막 챕터만 남았는데, 역시 개념도 어렵고 코드도 어렵습니다!

학습 후 양자화 기법으로 양자화된 모델의 성능을 비교해보고, 양자화 인식 학습을 통해 양자화된 모델의 정확도를 높이는 방법도 다룹니다.

이제 적절한 양자화 기법을 적용하여 리소스가 제한된 안드로이드 기기에서 모델의 성능을 극대화할 수 있는 앱을 만들어 볼 차례입니다!

DAY 10

후기

이제는 On-Device AI!

재미있는 모바일 딥러닝

후기 : 유저가 자주 이용하는 모바일, 웹에도 딥러닝이 필수인 시대

안드로이드는 서적도 많이 보고 앱도 어느 정도 만들어 본 경험이 있어 프로세스를 다시 복습하는 데 오랜 시간이 걸리지 않았습니다.

그리고 요즘 케라스, 텐서플로우, 파이 토치 등 딥러닝 라이브러리를 활용하여 공부와 프로젝트를 진행하고 있어 재미있는 서적이 나왔다고 생각했습니다.

그리고 역시! 예상대로!

텐서플로 라이트라는 또 다른 모바일 딥러닝 라이브러리가 제 머리와 가슴을 뒤흔들었습니다.

모델 선택부터, 개발, 변환, 배포까지 프로세스에 대하여 정확히 알려주며 어렵지 않게 앱 만드는 방법을 소개하고 있고

이미지 분류, 실시간 처리 그리고 마지막에는 성능 개선과 모델 최적화까지! 완벽한 프로세스로

독자가 충분히 이해할 수 있게 설명하고 있습니다.

후배한테도 재미있다고 극찬한 서적입니다.

모바일 개발과 인공지능 앱 개발에 관심이 있다면, 강추입니다!

★★★★★

리뷰를 마치며!

“<텐서플로 라이트를 활용한 안드로이드 딥러닝>“의 자세한 내용은 한빛미디어 홈페이지에서 확인하실 수 있습니다.”



TensorFlow Lite (Android)를 사용하여 커스텀 객체 감지 모델 빌드 및 배포

1. 시작하기 전에 이 Codelab에서는TFLite 모델 메이커 그런 다음 모델을 사용하여 Android 앱에 모델을 배포합니다.TFLite 작업 라이브러리 가 있는지 진단합니다. 다음을 수행합니다. 식사 이미지의 성분을 감지하는 Android 앱을 빌드합니다.

선행 학습된 TFLite 객체 감지 모델을 통합하고 모델이 감지할 수 있는 한계를 확인하세요.

샐러드와 TFLite 모델 메이커를 사용해 식사의 재료/구성요소를 감지하도록 커스텀 객체 감지 모델을 학습시킵니다.

TFLite 작업 라이브러리를 사용하여 Android 앱에 커스텀 모델을 배포합니다. 마지막으로 아래 이미지와 비슷한 항목을 만듭니다. 기본 요건 이 Codelab은 머신러닝 경험이 있는 모바일 개발자를 위해 설계되었습니다. 다음을 잘 알고 있어야 합니다. Kotlin과 Android 스튜디오를 사용한 Android 개발

기본 Python 구문 과정 내용 TFLite Model Maker를 사용하여 커스텀 객체 감지 모델을 학습시키는 방법

TFLite 작업 라이브러리를 사용하여 TFLite 객체 감지 모델을 배포하는 방법 준비물 최신 버전의 Android 스튜디오 (v4.2 이상)

Android 스튜디오 에뮬레이터 또는 실제 Android 기기

샘플 코드

Kotlin의 Android 개발에 관한 기본 지식

2 객체 감지 객체 감지는 디지털 이미지에서 객체를 감지하고 찾을 수 있는 컴퓨터 비전 작업 집합입니다. 이미지 또는 동영상 스트림을 통해 객체 감지 모델은 알려진 객체 집합 중 어느 것이 있는지 식별하고 이미지 내의 위치에 대한 정보를 제공할 수 있습니다. TensorFlow는 자동차, 오렌지와 같은 일반적인 객체를 감지할 수 있는 선행 학습된 모바일 최적화 모델을 제공합니다. 단 몇 줄의 코드로 모바일 앱에 선행 학습된 모델을 통합할 수 있습니다. 하지만 더 뚜렷하고 이례적인 카테고리의 객체를 감지해야 하거나 필요할 수 있습니다. 자체 학습 이미지를 수집한 다음 자체 객체 감지 모델을 학습시키고 배포해야 합니다. 자체 모델을 학습시키지 않고 일반적인 객체 감지를 수행하려는 경우 이 Codelab에서 ML Kit Object Detection 및 Tracking API를 사용하여 단 몇 줄로 객체 감지기를 빌드하는 방법을 알아보세요. 있습니다. TensorFlow Lite TensorFlow Lite는 Android 및 iOS 휴대기기를 비롯한 에지 기기에서 머신러닝 모델을 실행하도록 최적화된 크로스 플랫폼 머신러닝 라이브러리입니다. TensorFlow Lite는 ML Kit에서 머신러닝 모델을 실행하는 데 사용되는 핵심 엔진입니다. TensorFlow Lite 생태계에는 휴대기기에서 머신러닝 모델을 쉽게 학습시키고 배포하는 데 도움이 되는 두 가지 구성요소가 있습니다. Model Maker는 단 몇 줄의 코드만으로 사용자의 데이터를 사용하여 TensorFlow Lite 모델을 손쉽게 학습시킬 수 있는 Python 라이브러리로, 머신러닝에 대한 전문 지식이 필요하지 않습니다.

작업 라이브러리는 모바일 앱의 코드 몇 줄만으로 TensorFlow Lite 모델을 손쉽게 배포할 수 있게 해주는 크로스 플랫폼 라이브러리입니다. 이 Codelab에서는 TFLite에 중점을 둡니다. TFLite와 객체 감지와 관련 없는 개념과 코드 블록은 설명되지 않으며 간단히 복사하여 붙여넣을 수 있도록 제공됩니다.

3. 설정 코드 다운로드 다음 링크를 클릭하면 이 Codelab의 모든 코드를 다운로드할 수 있습니다. file_download소스 코드 다운로드 다운로드한 ZIP 파일의 압축을 해제합니다. 그러면 필요한 모든 리소스가 포함된 루트 폴더 ( odml-pathways-main )가 압축 해제됩니다. 이 Codelab에서는 object-detection/codelab2/android 하위 디렉터리의 소스만 필요합니다. object-detection/codelab2/android 저장소의 android 하위 디렉터리에는 두 디렉터리가 포함됩니다. starter : 이 Codelab에서 빌드하는 시작 코드입니다.

: 이 Codelab에서 빌드하는 시작 코드입니다. 최종: 완료된 샘플 앱의 완성된 코드입니다. 시작 앱 가져오기 먼저 시작 앱을 Android 스튜디오로 가져옵니다. Android 스튜디오를 열고 Import Project (Gradle, Eclipse ADT 등)를 선택합니다. 이전에 다운로드한 소스 코드에서 starter 폴더를 엽니다. 앱에서 모든 종속 항목을 사용할 수 있도록 하려면 가져오기 프로세스가 완료되었을 때 프로젝트를 Gradle 파일과 동기화해야 합니다. Android 스튜디오 툴바에서 Sync Project with Gradle Files ( )를 선택합니다. starter/app/build.gradle 가져오기 이 버튼을 사용 중지한 경우 전체 저장소가 아닌 starter/app/build.gradle만 가져와야 합니다. 시작 앱 실행 프로젝트를 Android 스튜디오로 가져왔으므로 이제 앱을 처음으로 실행할 수 있습니다. USB를 통해 Android 기기를 컴퓨터에 연결하거나 Android 스튜디오 에뮬레이터를 시작하고 Android 스튜디오 툴바에서 Run ( )을 클릭합니다.

4. 시작 앱 이해 이 Codelab을 단순하게 유지하고 머신러닝 비트에 집중하기 위해, 시작 앱에는 몇 가지 상용구 코드가 몇 가지 포함되어 있습니다. 기기의 카메라를 사용하여 사진을 찍을 수 있습니다.

Android Emulator에서 객체 감지를 사용해 볼 수 있는 스톡 이미지가 포함되어 있습니다.

입력 비트맵에 객체 감지 결과를 그리는 편리한 방법이 있습니다. 대부분 앱 스켈레톤에서 다음 메서드와 상호작용합니다. fun runObjectDetection(bitmap: Bitmap) 미리 설정된 이미지를 선택하거나 사진을 찍으면 이 메서드가 호출됩니다. bitmap 는 객체 감지를 위한 입력 이미지입니다. 이 Codelab의 뒷부분에서 이 메서드에 객체 감지 코드를 추가합니다.

미리 설정된 이미지를 선택하거나 사진을 찍으면 이 메서드가 호출됩니다. 는 객체 감지를 위한 입력 이미지입니다. 이 Codelab의 뒷부분에서 이 메서드에 객체 감지 코드를 추가합니다. data class DetectionResult(val boundingBoxes: Rect, val text: String) 시각화를 위한 객체 감지 결과를 나타내는 데이터 클래스입니다. boundingBoxes 는 객체가 있는 직사각형이고 text 는 객체의 경계 상자와 함께 표시할 감지 결과 문자열입니다.

시각화를 위한 객체 감지 결과를 나타내는 데이터 클래스입니다. 는 객체가 있는 직사각형이고 는 객체의 경계 상자와 함께 표시할 감지 결과 문자열입니다. fun drawDetectionResult(bitmap: Bitmap, detectionResults: List): Bitmap 이 메서드는 입력 bitmap 의 detectionResults 에 객체 감지 결과를 그리고 수정된 복사본을 반환합니다. 다음은 drawDetectionResult 유틸리티 메서드의 출력 예입니다.

5 기기 객체 감지 추가 이제 공통 객체를 시작 앱에 감지할 수 있는 선행 학습된 TFLite 모델을 통합하여 프로토타입을 빌드해 보겠습니다. 선행 학습된 TFLite 객체 감지 모델 다운로드 TensorFlow Hub에는 사용할 수 있는 몇 가지 객체 감지기 모델이 있습니다. 이 Codelab에서는 COCO 2017 데이터 세트에서 학습되고 TFLite에 최적화되고 모바일 CPU, GPU의 성능에 맞게 설계된 EfficientDet-Lite Object 감지 모델을 다운로드합니다. , EdgeTPU file_download모델 다운로드 다음으로, TFLite 작업 라이브러리를 사용하여 선행 학습된 TFLite 모델을 시작 앱에 통합합니다. TFLite 작업 라이브러리를 사용하면 모바일에 최적화된 머신러닝 모델을 모바일 앱에 쉽게 통합할 수 있습니다. 객체 감지, 이미지 분류, 텍스트 분류를 비롯하여 널리 사용되는 머신러닝 사용 사례를 많이 지원합니다. 코드 몇 줄로 TFLite 모델을 로드하고 실행할 수 있습니다. TFLite 작업 라이브러리는 유효한 메타데이터가 포함된 TFLite 모델만 지원합니다. 이 TensorFlow Hub 컬렉션에서 더 많은 지원되는 객체 감지 모델을 찾을 수 있습니다. 시작 앱에 모델 추가 방금 다운로드한 모델을 시작 앱의 assets 폴더에 복사합니다. 이 폴더는 Android 스튜디오의 Project 탐색 패널에서 찾을 수 있습니다. 파일 이름을 model.tflite 로 지정합니다. app/build.gradle 파일로 이동하여 다음 줄을 dependencies 구성에 추가합니다. implementation ‘org.tensorflow:tensorflow-lite-task-vision:0.3.1’ 프로젝트를 Gradle 파일과 동기화하기 앱에서 모든 종속 항목을 사용할 수 있도록 하려면 이 시점에서 프로젝트를 Gradle 파일과 동기화해야 합니다. Android 스튜디오 툴바에서 Sync Project with Gradle Files ( )를 선택합니다. (이 버튼을 사용 중지한 경우 전체 저장소가 아닌 starter/app/build.gradle만 가져오세요.) 이미지에서 기기 객체 감지 설정 및 실행 객체 감지 모델을 로드하고 실행하려면 3개의 API로 간단한 3단계만 거치면 됩니다. 이미지 / 스트림 준비: TensorImage

검사 프로그램 객체 ObjectDetector 를 만듭니다.

를 만듭니다. 위의 두 객체 연결: detect(image) MainActivity.kt 파일의 runObjectDetection(bitmap: Bitmap) 함수 내에서 가능합니다. /** * TFLite Object Detection Function */ private fun runObjectDetection(bitmap: Bitmap) { //TODO: Add object detection code here } 현재 함수는 비어 있습니다. 다음 단계로 이동하여 TFLite 객체 감지기를 구현합니다. 그 과정에서 Android 스튜디오에 필요한 가져오기를 추가하라는 메시지가 표시됩니다. org.tensorflow.lite.support.image.TensorImage

org.tensorflow.lite.task.vision.detector.ObjectDetector 이미지 객체 만들기 이 Codelab에 사용할 이미지는 기기 내 카메라 또는 앱의 UI에서 선택한 미리 설정된 이미지를 사용합니다. 입력 이미지는 Bitmap 형식으로 디코딩되고 runObjectDetection 메서드에 전달됩니다. TFLite는 Bitmap 에서 TensorImage 를 생성하는 간단한 API를 제공합니다. 아래의 코드를 runObjectDetection(bitmap:Bitmap) 상단에 추가합니다. // Step 1: create TFLite’s TensorImage object val image = TensorImage.fromBitmap(bitmap) 검사 프로그램 인스턴스 만들기 TFLite 작업 라이브러리는 빌더 디자인 패턴을 따릅니다. 구성을 빌더에 전달한 다음, 여기에서 감지기를 획득합니다. 객체 감지기의 민감도를 조정하는 옵션을 비롯하여 몇 가지 옵션을 구성할 수 있습니다. 최대 결과 (모델에서 감지해야 하는 최대 객체 수)

점수 임계값 (감지된 객체를 반환하는 객체 감지기의 신뢰도)

라벨 허용 목록/거부 목록 (사전 정의된 목록에서 객체 허용/거부) TFLite 모델 파일 이름과 구성 옵션을 지정하여 객체 감지기 인스턴스를 초기화합니다. // Step 2: Initialize the detector object val options = ObjectDetector.ObjectDetectorOptions.builder() .setMaxResults(5) .setScoreThreshold(0.5f) .build() val detector = ObjectDetector.createFromFileAndOptions( this, // the application context “model.tflite”, // must be same as the filename in assets folder options ) 검사 프로그램에 피드 이미지 다음 코드를 fun runObjectDetection(bitmap:Bitmap) 에 추가합니다. 이렇게 하면 이미지가 검사 프로그램에 전달됩니다. // Step 3: feed given image to the model and print the detection result val results = detector.detect(image) 완료되면 감지기는 Detection 목록을 반환하며, 각 목록에는 모델이 이미지에서 발견한 객체에 대한 정보가 포함됩니다. 각 객체에 대한 설명은 다음과 같습니다. boundingBox : 이미지 내에서 객체의 존재와 위치를 선언하는 직사각형

: 이미지 내에서 객체의 존재와 위치를 선언하는 직사각형 categories : 객체의 종류 및 감지 결과에 대한 모델의 신뢰도입니다. 이 모델은 여러 카테고리를 반환하고 가장 신뢰도 높은 카테고리를 먼저 반환합니다.

: 객체의 종류 및 감지 결과에 대한 모델의 신뢰도입니다. 이 모델은 여러 카테고리를 반환하고 가장 신뢰도 높은 카테고리를 먼저 반환합니다. label : 객체 카테고리의 이름입니다.

: 객체 카테고리의 이름입니다. classificationConfidence : 0.0~1.0 범위의 부동 소수점 수, 1.0: 100% 감지 결과 인쇄 다음 코드를 fun runObjectDetection(bitmap:Bitmap) 에 추가합니다. 이 메서드는 객체 감지 결과를 Logcat에 출력하는 메서드를 호출합니다. // Step 4: Parse the detection result and show it debugPrint(results) 그런 다음 이 debugPrint() 메서드를 MainActivity 클래스에 추가합니다. private fun debugPrint(results : List) { for ((i, obj) in results.withIndex()) { val box = obj.boundingBox Log.d(TAG, “Detected object: ${i} “) Log.d(TAG, ” boundingBox: (${box.left}, ${box.top}) – (${box.right},${box.bottom})”) for ((j, category) in obj.categories.withIndex()) { Log.d(TAG, ” Label $j: ${category.label}”) val confidence: Int = category.score.times(100).toInt() Log.d(TAG, ” Confidence: ${confidence}%”) } } } 이제 객체 감지기가 준비되었습니다. Android 스튜디오 툴바에서 Run ( )을 클릭하여 앱을 컴파일하고 실행합니다. 앱이 기기에 표시되면 미리 설정된 이미지 중 하나를 탭하여 객체 감지기를 시작합니다. 그런 다음 IDE 내의 Logcat 창*(* *)* 을 보면 다음과 유사한 것을 볼 수 있습니다. D/TFLite-ODT: Detected object: 0 D/TFLite-ODT: boundingBox: (0.0, 15.0) – (2223.0,1645.0) D/TFLite-ODT: Label 0: dining table D/TFLite-ODT: Confidence: 77% D/TFLite-ODT: Detected object: 1 D/TFLite-ODT: boundingBox: (702.0, 3.0) – (1234.0,797.0) D/TFLite-ODT: Label 0: cup D/TFLite-ODT: Confidence: 69% 검사 프로그램이 객체 2개를 확인했음을 나타냅니다. 첫 번째는 다음과 같습니다. 객체가 (0, 15) – (2223, 1645)의 직사각형 안에 있습니다.

라벨은 식탁

이 모델은 첫 번째 자리가 식탁 (77%)이라고 확신합니다. TFLite 작업 라이브러리를 작동하는 데 필요한 모든 기술적만 갖추면 됩니다. 바로 이 모든 것이 가능합니다. 축하합니다. 그러나 UI 측에서는 여전히 출발점에 있습니다. 이제 감지된 결과를 후처리하여 UI에서 감지된 결과를 사용해야 합니다.

6. 입력 이미지에 감지 결과 그리기 이전 단계에서는 감지 결과를 logcat 에 간단하고 빠르게 출력했습니다. 이 단계에서는 시작 앱에 이미 구현된 유틸리티 메서드를 사용하여 다음을 수행합니다. 이미지에 경계 상자 그리기

경계 상자 내에 카테고리 이름과 신뢰도 백분율을 그립니다. debugPrint(results) 호출을 다음 코드 스니펫으로 바꿉니다. val resultToDisplay = results.map { // Get the top-1 category and craft the display text val category = it.categories.first() val text = “${category.label}, ${category.score.times(100).toInt()}%” // Create a data object to display the detection result DetectionResult(it.boundingBox, text) } // Draw the detection result on the bitmap and show it. val imgWithResult = drawDetectionResult(bitmap, resultToDisplay) runOnUiThread { inputImageView.setImageBitmap(imgWithResult) } 참고: 객체 감지는 계산 집약적인 프로세스이며 TFLite 작업 라이브러리는 호출되는 동일한 스레드에서 실행되므로 앱 UI를 차단하지 않으려면 백그라운드 스레드에서 실행하는 것이 중요합니다. Kotlin 코루틴을 사용하여 runObjectDetection 메서드를 호출하는 것을 볼 수 있습니다. lifecycleScope.launch(Dispatchers.Default) { runObjectDetection(bitmap) } 이제 Android 스튜디오 툴바에서 Run ( )을 클릭합니다. 앱이 로드되면 미리 설정된 이미지 중 하나를 탭하여 감지 결과를 확인합니다. 본인의 사진을 사용해 보고 싶으신가요? 사진 촬영 버튼을 탭하고 주변의 사물 사진을 캡처합니다.

7 커스텀 객체 감지 모델 학습 이전 단계에서는 선행 학습된 TFLite 객체 감지 모델을 Android 앱에 통합했으며, 그릇이나 식탁과 같은 일반적인 객체를 샘플 이미지에서 감지할 수 있음을 확인했습니다. 하지만 목표는 이미지의 요리 재료를 감지하는 것이므로 일반적인 객체 감지가 사용 사례에 적합하지 않습니다. 감지하려는 성분이 포함된 학습 데이터 세트를 사용하여 커스텀 객체 감지 모델을 학습시키려고 합니다. 다음은 자체 커스텀 모델 학습을 연습하는 데 사용할 수 있는 이미지와 라벨이 포함된 데이터 세트입니다. Open Images Dataset V4의 이미지를 사용하여 생성되었습니다. Colaboratory 다음은 Google Colab으로 이동하여 커스텀 모델을 학습시켜 보겠습니다. Google Colab으로 이동 익숙하지 않다면 Google Colaboratory(Colab)를 사용해 코드를 작성하고 실행할 수 있는 대화형 환경입니다. Colab은 머신러닝 커뮤니티에서 광범위하게 사용되며, Colab을 사용하면 이미지 데이터 세트를 가져와서 이미지 분류기를 학습시키고 모델을 평가할 수 있습니다. Colab 노트북은 Google 클라우드 서버에서 코드를 실행하므로 사용 중인 컴퓨터 성능과 관계없이 GPU 및 TPU를 포함한 Google 하드웨어 성능을 활용할 수 있습니다. 브라우저만 있으면 사용 가능합니다. Colab에 액세스할 수 없다면 다른 환경을 사용하고 이 GitHub 링크를 통해 코드에 액세스할 수 있습니다. 커스텀 모델을 학습시키는 데 약 30분이 소요됩니다. 급한 경우 데이터 세트를 통해 선행 학습된 모델을 다운로드하고 다음 단계를 진행할 수 있습니다. file_download샐러드 감지 모델 다운로드

8 맞춤 TFLite 모델을 Android 앱에 통합 샐러드 감지 모델을 학습시켰다면 이제 모델을 통합하고 공통 객체 감지기에서 특히 샐러드 감지기로 전환합니다. 샐러드 TFLite 모델을 assets 폴더에 복사합니다. 새 모델의 이름을 salad.tflite 로 지정합니다. MainActivity.kt 파일을 열고 ObjectDetector 초기화 코드를 찾습니다. EfficientDet-Lite 모델 ( model.tflite )을 샐러드 모델 ( salad.tflite )으로 대체 val detector = ObjectDetector.createFromFileAndOptions( this, // the application context “salad.tflite”, // must be same as the filename in assets folder options ) Android 스튜디오 툴바에서 Run ( )을 클릭하여 새 모델로 앱을 다시 실행합니다. 그러면 이제 앱에서 치즈, 샐러드, 베이커리 제품을 인식할 수 있습니다. Android Emulator에서 앱을 실행하면 객체 감지 모델이 결과를 반환하는 데 몇 초 정도 걸릴 수 있습니다. 이는 TFLite 양자화 모델이 에뮬레이터에서 실행되도록 최적화되지 않았기 때문입니다. 실제 Android 기기에서 훨씬 더 빠르게 실행됩니다.

So you have finished reading the 텐서 플로우 라이트 topic article, if you find this article useful, please share it. Thank you very much. See more: 안드로이드 텐서플로우 라이트, TensorFlow Lite GitHub, tensorflow lite란, Tensorflow GitHub, TensorFlow js, 텐서플로우 코리아

Leave a Comment