일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 버전 업그레이드
- 자신만의
- #YOLO #darknet # cuda #gpu
- 지도
- 안드로이드
- API
- 안드로이드 스튜디오
- virtualenv
- yolo mark
- 현재위치
- 이미지 인식
- bazel
- 이미지인식
- YOLO
- Python
- GPU
- tensorflow
- CUDA
- googlemp
- ubuntu
- Android
- Android Studio
- deep learning
- cudnn
- Google Map
- opencv
- Today
- Total
목록Fish in my hands (2018.3~2018.6) (23)
Be happy
안녕하세요!!! 내 손안에 물고기(Fish in my hand)의 시연영상 및 기능과 추후 계획에 대해서 말씀드리려고 합니다.!!! 드디어 마무리입니다.ㅜㅜ 팀원들 모두 고생했고 앞으로 더 발전하는 모습을 꾸준히 업로드 하겠습니다. 자 그러면 시연영상을 보여드리겠습니다.!!! 시연영상은 저희가 직접 수산시장에 가서 찍은 영상입니다. 영상을 보시면 저희가 임의로 정한 물고기의 사진을 찍으면 그 물고기가 몇프로나 일치하는지의 %를 확인할 수 있습니다. 그리고 바로 그 물고기의 정보를 출력하게 되는 것을 보실 수 있습니다. 또한 내가 잡은 물고기를 도감에 저장을 할 수도 있고 저장된 물고기의 위치 또한 GPS기능을 이용하여 확일할 수 있는 기능을 구현 하였습니다. 그리고 facebook과 연동을 하여 실시간으..
이번에는 android google map에 현재 위치를 표시하는 방법에 대해 설명해보겠습니다. 이전글이었던 google maps android api 사용 방법에 추가되서 진행됩니다. 1. Androidmanifest.xml의 태그 하위요소로 태그를 사용하여 위치정보 접근을 위한 퍼미션을 추가해줍니다. 2.mainactivity.java에 다음 코드를 추가합니다. package com.tistory.webnautes.googlemapsandroidapiexample; import android.Manifest; import android.annotation.TargetApi; import android.content.DialogInterface; import android.content.Intent; ..
구글맵 안드로이드 API 사용방법에 대해 설명하도록 하겠습니다. 1. https://console.developers.google.com/apis/dashboard에 접속하여 프로젝트를 만듭니다. 2. 프로젝트 생성 완료 후, google maps android api를 사용하려면 추가 설정이 필요합니다. api 및 사용 서비스 사용 설정을 클릭합니다. 3.google maps android를 검색하여 maps SDK for Android를 클릭합니다. 4.사용 설정을 클릭합니다. 5.사용자 인증 정보를 클릭하고, 사용자 인증 정보 만들기를 클릭하여 보이는 메뉴에서 API 키를 클릭한다. 6.테스트 용도라면 지금 생성된 API키를 사용하시면 되고, 배포할 필요가 있다면 키 제한을 클릭한다. 7.어플리케이..
이전 글들을 통해 tensorflow로 이미지인식까지 해봤습니다. 이번 글은 모바일 어플리케이션에 대해 설명해보도록 하겠습니다. 일단, 저희는 아래의 링크 오픈소스를 활용하여 저희 입맛에 맞게 어플을 변형시켜봤습니다. https://github.com/MindorksOpenSource/AndroidTensorFlowMachineLearningExample 몇몇의 중요한 부분만 말해보겠습니다. 우선 Main Activity에 INPUT_SIZE, IMAGE_MEAN, IMAGE_STD, INPUT_NAME, OUTPUT_NAME 등 위의 사진에 보이는 것과 같이 해주시면 됩니다. 그리고 pb파일과 라벨 텍스트 파일도 자기가 사용할 것을 선택해서 andorid_asset에 추가해주시면 됩니다. *build...
지난 글에서 이미지를 학습시켜 결과물로 .pb 확장자의 그래프파일과 텍스트파일(라벨)을 만들었습니다.하지만, 이렇게 만들어진 파일을 바로 모바일에서 읽을 수가 없습니다. 모바일에서는 적용할 수 없는 op(operation)가 일부 들어가 있기 때문이라고합니다. 그래서 모바일에서 지원하지 않는 op들을 제거해주는 (예를들면 DecodeJpeg 같은거) 작업을 해줘야 하는데 그게 바로 optimize_for_inference 라는 툴이 하는 역할입니다. 1. 학습된 그래프파일을 최적화하기 위와 같이 명령을 실행해줍니다. 2.Quantize 하기 위의 과정보다 더 작은 크기의 파일로 압축합니다. 위의 과정을 모두다 실행하고 나시면, 폴더에 파일들이 아래와 같이 생성되었을겁니다.새로 생성된 pb 파일들을 이용해..
1. 학습을 위한 디렉토리 생성 학습을 위한 디렉토리 안에 학습결과로 생성시킨 그래프파일, 라벨, 테스트용 파일 등을 집어넣을 것이기 때문에, 아래와 같은 구조로 디렉토리를 생성합니다.(train 폴더 안에 input, output 폴더를 생성합니다.) 2.학습을 위한 샘플 이미지파일들 저같은 경우에는 물고기를 인식하는 어플을 만들고 싶어서 input폴더 안에 fish_photos라는 폴더를 생성했고, 그 밑에 다시 하위 디렉토리로 다양한 물고기 이름으로 된 디렉토리들을 생성해서 그 아래에 각각의 물고기 사진들이 수백개가 들어가 있습니다. 위의 디렉토리 구조를 잘 기억하시는게 좋습니다. 앞으로 우리만의 이미지학습을 시키고자 할때에도 동일한 구조로 디렉토리를 생성하시고 원하는 사진들을 분류해서 넣으면 됩니..
tensorflow를 활용한 이미지인식 모바일 어플리케이션 만드는 과정에 대해 설명드리겠습니다. 일단 이전 글들에서 필요한 환경을 얼추 다 갖추었다고 생각하고 진행하도록 하겠습니다. 1)깃허브에서 최신버전의 tensorflow 소스 설치 저는 tensorflow라는 폴더를 하나 만들고 그 가상환경디렉토리 안에 깃허브소스들을 다운로드 받았습니다. 위와 같이 진행하면 tensorflow 폴더 안에 tensorflow 디렉토리가 만들어지면서 깃허브의 소스가 받아집니다. 여기에는 우리가 사용할 학습, 모바일용 파일빌드, 모바일용 예제 등 모든 소스들이 다 들어가있습니다. 2)학습/테스트/모바일용 그래프 제작에 필요한 파일들 빌드하기 2-1) 각 빌드된 파일들의 역할a) retrain: 이미지파일들을 입력받아서 ..
private void getImage() { String id = editTextId.getText().toString().trim(); class GetImage1 extends AsyncTask { ProgressDialog loading; @Override protected void onPreExecute() { super.onPreExecute(); loading = ProgressDialog.show(Book.this, "Uploading...", null, true, true); } @Override protected void onPostExecute(Bitmap b) { super.onPostExecute(b); loading.dismiss(); imageView3.setImageBitma..
우선 서버를 GET형태로 받아서id에 저장된 이미지를 불러옵니다그리고 이미지를 decode해가지고, 출력을합니다. 안드로이드 : http://prettymen.tistory.com/39?category=750476