0 ~ 32768 로 사용한다는 것. (그럼 이론상 FHD 17*17개 UHD 8*8 까지 가능하려나)
정확도는 어떤 의미로 쓰려나.. 나중에 확대했을때를 대비해서 소수점 포인트를 주는건가?
/** * Fixed-point number * * A `wl_fixed_t` is a 24.8 signed fixed-point number with a sign bit, 23 bits * of integer precision and 8 bits of decimal precision. Consider `wl_fixed_t` * as an opaque struct with methods that facilitate conversion to and from * `double` and `int` types. */ typedef int32_t wl_fixed_t;
$ python3 classify_image.py --model models/mobilenet_v2_1.0_224_inat_bird_quant_edgetpu.tflite --labels models/inat_bird_labels.txt --input images/parrot.jpg ----INFERENCE TIME---- Note: The first inference on Edge TPU is slow because it includes loading the model into Edge TPU memory. 137.5ms 13.0ms 13.1ms 13.1ms 13.1ms -------RESULTS-------- Ara macao (Scarlet Macaw): 0.77734
변환되지 않은 모델. 속도 차이가 상당히 나는데 반복 실행시 속도가 줄어들지 않는걸 보면..
tpu 가속을 받지 못하고 cpu로 돌리기 때문이려나?
그리고 정확도는 소수점 5자리 까지 동일하게 나온다.
quantization 으로 인한 정확도 차이는 잘만들면 무시할 만한 수준 이라고 보면 될 듯.
----INFERENCE TIME---- Note: The first inference on Edge TPU is slow because it includes loading the model into Edge TPU m emory. 552.0ms 542.7ms 541.3ms 549.1ms 541.4ms -------RESULTS-------- Ara macao (Scarlet Macaw): 0.77734