계획 없이 가서 돌다가 지쳐서 모든 계획을 포기하고 돌아옴
이제 앵무새 카페는 안가게 되려나?
가성비가 너무 안 좋아 ㅠㅠ
'개소리 왈왈 > 육아관련 주저리' 카테고리의 다른 글
| 휴가 처갓댁 (0) | 2025.09.12 |
|---|---|
| 오랫만에 회전초밥 (4) | 2025.08.30 |
| 애견미용이 비싸서! (0) | 2025.08.23 |
| 다시 돌아온 열대야 (0) | 2025.08.19 |
| 하루 늦은.. 기절? (0) | 2025.08.17 |
계획 없이 가서 돌다가 지쳐서 모든 계획을 포기하고 돌아옴
이제 앵무새 카페는 안가게 되려나?
가성비가 너무 안 좋아 ㅠㅠ
| 휴가 처갓댁 (0) | 2025.09.12 |
|---|---|
| 오랫만에 회전초밥 (4) | 2025.08.30 |
| 애견미용이 비싸서! (0) | 2025.08.23 |
| 다시 돌아온 열대야 (0) | 2025.08.19 |
| 하루 늦은.. 기절? (0) | 2025.08.17 |
가서 물어보니 5.5 ! 6.0만 이래서
그 돈이면 내가 그냥 소고기 사먹지! 하면서 직접 개털밈
1시간은 족히 걸린듯 헉헉
| 오랫만에 회전초밥 (4) | 2025.08.30 |
|---|---|
| 드라이브~ (0) | 2025.08.24 |
| 다시 돌아온 열대야 (0) | 2025.08.19 |
| 하루 늦은.. 기절? (0) | 2025.08.17 |
| 시승(?) (1) | 2025.08.15 |
eIQ의 TAO가 먼가 해서 눌렀더니

전이학습이 가능한 솔루션이라..
NVIDIA TAO Toolkit은 어떤 솔루션인가요?AI/머신 러닝 모델을 처음부터 만들려면 엄청난 양의 데이터와 수많은 데이터 과학자가 필요합니다. 하지만 이제는 기존 신경망 모델에서 학습된 기능을 추출하여 새로운 맞춤형 모델에 적용하는 주요 기법인 transfer learning을 통해 모델 개발을 가속할 수 있습니다.TensorFlow와 PyTorch를 기반으로 하는 NVIDIA TAO Toolkit은 AI/딥 러닝 프레임워크의 복잡성을 없애 모델 훈련 프로세스를 가속하는 NVIDIA TAO 프레임워크의 로코드 버전입니다. TAO Toolkit을 사용하면 AI 전문 지식이나 대규모 훈련 데이터 세트 없이도 전이 학습의 이점을 활용해 자체 데이터로 NVIDIA의 사전 훈련된 모델을 미세 조정하고 추론에 맞춰 최적화할 수 있습니다. |
| eiq 에러들 (0) | 2025.08.26 |
|---|---|
| eiq 학습 시도 (0) | 2025.08.26 |
| eqi - model tool (0) | 2025.08.22 |
| NNstreamer - tensor* (0) | 2025.08.18 |
| openVX, verisilicon(vivante) (0) | 2025.08.14 |
facenet 모델열어 보려고 실행했는데
160x160x3 음.. 160x160 사이즈의 RGB 영상을 입력 받고, 128개의 float32형 벡터를 출력하는 모델이다.

많이 익숙한 녀석이라 확인해보니, 역시 netron 이었군.

| eiq 학습 시도 (0) | 2025.08.26 |
|---|---|
| nvidia tao toolkit (0) | 2025.08.22 |
| NNstreamer - tensor* (0) | 2025.08.18 |
| openVX, verisilicon(vivante) (0) | 2025.08.14 |
| gstreamer pipeline / appsink (0) | 2025.08.14 |
nxp의 selfie_segmenter.py 에서 추출한 파이프라인
원래 나온거랑은 약간의 줄 추가가 있을 뿐 순서는 차이가 없음
특이(?)하게도 v4lsrc가 가장 처음에 시작하는게 아니라
imxpositor_g2d 라고 입력받은걸 양쪽으로 출력하는 비디오 믹서가 파이프라인의 시작에 존재한다.
|
imxcompositor_g2d latency=33333333 min-upstream-latency=33333333 name=comp sink_1::ypos=0 sink_0::ypos=0 sink_0::xpos=480 \
! cairooverlay name=cairo_text \
! fpsdisplaysink name=wayland_sink text-overlay=false video-sink=waylandsink \
v4l2src device=/dev/video3 \
! video/x-raw,width=640,height=480,framerate=30/1 \
! aspectratiocrop aspect-ratio=1/1 \
! imxvideoconvert_g2d rotation=horizontal-flip \
! video/x-raw,width=480,height=480 \
! tee name=t \
t. ! queue max-size-buffers=1 leaky=2 \
! imxvideoconvert_g2d \
! video/x-raw,width=256,height=256 \
! videoconvert \
! video/x-raw,format=RGB \
! tensor_converter \
! tensor_transform mode=arithmetic option=typecast:float32,div:255.0 \
! tensor_filter framework=tensorflow-lite model=/opt/gopoint-apps/downloads/selfie_segmenter_int8.tflite accelerator=true:npu custom=Delegate:External,ExtDelegateLib:libvx_delegate.so name=tensor_filter latency=1 \
! tensor_decoder mode=image_segment option1=snpe-depth option2=0 \
! imxvideoconvert_g2d \
! video/x-raw,width=480,height=480,format=RGBA \
! comp.sink_0 \
t. ! queue max-size-buffers=1 leaky=2 \
! comp.sink_1
|
자리를 조금 움직여서 보기 편하게(?) 만들면 아래와 같이
v4lsrc로 시작해서 fpsdisplaysink 로 끝내는 순차적인 구성으로 변경이 가능하다.
|
v4l2src device=/dev/video3 \
! video/x-raw,width=640,height=480,framerate=30/1 \
! aspectratiocrop aspect-ratio=1/1 \
! imxvideoconvert_g2d rotation=horizontal-flip \
! video/x-raw,width=480,height=480 \
! tee name=t \
t. ! queue max-size-buffers=1 leaky=2 \
! imxvideoconvert_g2d \
! video/x-raw,width=256,height=256 \
! videoconvert \
! video/x-raw,format=RGB \
! tensor_converter \
! tensor_transform mode=arithmetic option=typecast:float32,div:255.0 \
! tensor_filter framework=tensorflow-lite model=/opt/gopoint-apps/downloads/selfie_segmenter_int8.tflite accelerator=true:npu custom=Delegate:External,ExtDelegateLib:libvx_delegate.so name=tensor_filter latency=1 \
! tensor_decoder mode=image_segment option1=snpe-depth option2=0 \
! imxvideoconvert_g2d \
! video/x-raw,width=480,height=480,format=RGBA \
! imxcompositor_g2d latency=33333333 min-upstream-latency=33333333 name=comp sink_1::ypos=0 sink_0::ypos=0 sink_0::xpos=480 \
! cairooverlay name=cairo_text \
! fpsdisplaysink name=wayland_sink text-overlay=false video-sink=waylandsink \
t. ! queue max-size-buffers=1 leaky=2 \
! comp.sink_1
|
tee 로 나눈걸 다시 명시적으로 하는걸 생략하면 아래처럼도 변형가능하다.
|
v4l2src device=/dev/video3 \
! video/x-raw,width=640,height=480,framerate=30/1 \
! aspectratiocrop aspect-ratio=1/1 \
! imxvideoconvert_g2d rotation=horizontal-flip \
! video/x-raw,width=480,height=480 \
! tee name=t \
! queue max-size-buffers=1 leaky=2 \
! imxvideoconvert_g2d \
! video/x-raw,width=256,height=256 \
! videoconvert \
! video/x-raw,format=RGB \
! tensor_converter \
! tensor_transform mode=arithmetic option=typecast:float32,div:255.0 \
! tensor_filter framework=tensorflow-lite model=/opt/gopoint-apps/downloads/selfie_segmenter_int8.tflite accelerator=true:npu custom=Delegate:External,ExtDelegateLib:libvx_delegate.so name=tensor_filter latency=1 \
! tensor_decoder mode=image_segment option1=snpe-depth option2=0 \
! imxvideoconvert_g2d \
! video/x-raw,width=480,height=480,format=RGBA \
! imxcompositor_g2d latency=33333333 min-upstream-latency=33333333 name=comp sink_1::ypos=0 sink_0::ypos=0 sink_0::xpos=480 \
! cairooverlay name=cairo_text \
! fpsdisplaysink name=wayland_sink text-overlay=false video-sink=waylandsink \
t. \
! queue max-size-buffers=1 leaky=2 \
! comp.sink_1
|
| gstpipelinestudio (0) | 2025.09.11 |
|---|---|
| gstreamer 기초 (0) | 2025.08.27 |
| gstreamer tee 예제 (0) | 2025.08.21 |
| gstreamer capsfilter (0) | 2025.08.21 |
| gstreamer parse_launch (0) | 2024.01.11 |
코드분석하다 보니 신경망 모델중에
facenet_int_quantized.tflite 이런파일이 보여서 imagenet 처럼 머하는건가 찾아보는데
128 차원 임베딩 벡터란걸 학습시켜 비교를 한다는데
일단 코드 상으로는
결과물이 128 개의 배열로 나온다.
그리고 그걸 코사인 유사로 계산을 통해서 두개의 백터가 유사하다면 동일 인물로 추정하는 것 같은데..
[링크 : https://cake.tistory.com/44]
[링크 : https://hwangtoemat.github.io/paper-review/2020-04-02-FaceNet-%EB%82%B4%EC%9A%A9/]
[링크 : https://wikidocs.net/151188]
[링크 : https://hyunah-home.tistory.com/entry/Facenet-얼굴-인식-모델-Fine-tuning-하기]
| 내장 그래픽으로 ROCm? (0) | 2025.09.05 |
|---|---|
| ai 모델들 조사 (0) | 2025.09.04 |
| NMS, soft-NMS (0) | 2024.01.15 |
| VGG-16 / VGG-19 (0) | 2024.01.11 |
| MobileNetV2 SSD FPN-Lite (0) | 2024.01.11 |
gemini를 찬양하라(?)
| # Example with avenc_aac gst-launch-1.0 -e \ filesrc location=video1.mp4 ! decodebin name=demux1 \ filesrc location=video2.mp4 ! decodebin name=demux2 \ demux1. ! queue ! videoconvert ! x264enc ! tee name=vtee1 \ demux1. ! queue ! audioconvert ! audioresample ! avenc_aac ! tee name=atee1 \ demux2. ! queue ! videoconvert ! x264enc ! tee name=vtee2 \ demux2. ! queue ! audioconvert ! audioresample ! avenc_aac ! tee name=atee2 \ vtee1. ! queue ! mp4mux name=mux1 ! filesink location=output1.mp4 \ vtee2. ! queue ! mp4mux name=mux2 ! filesink location=output2.mp4 \ atee2. ! queue ! mux1.audio_0 \ atee1. ! queue ! mux2.audio_0 |
name. 으로 해서 이전것에서 새끼(?)치면 되나보다.
굳이 그리자면 이런식으로 나오는 듯.

2021.02.08 - [프로그램 사용/gstreamer] - gstreamer tee
| gstreamer 기초 (0) | 2025.08.27 |
|---|---|
| gstreamer pipeline (0) | 2025.08.22 |
| gstreamer capsfilter (0) | 2025.08.21 |
| gstreamer parse_launch (0) | 2024.01.11 |
| nnstreamer (0) | 2023.12.20 |
gstreamer 파이프라인 예제를 보다가 이상한걸 발견
video/x-raw가 엘리먼트 이름은 아닐텐데..하고 gpt에 물어보니 capsfilter 라고 해서 찾아보니
| gst-launch-1.0 -v v4l2src ! videorate ! video/x-raw,framerate=25/2 ! theoraenc ! oggmux ! filesink location=recording.ogg |
[링크 : https://gstreamer.freedesktop.org/documentation/videorate/?gi-language=c]
"capsfilter caps=" 생략하고 쓰면 알아서 capsfilter로 인식하는 건가?
| Example launch line gst-launch-1.0 videotestsrc ! capsfilter caps=video/x-raw,format=GRAY8 ! videoconvert ! autovideosink Limits acceptable video from videotestsrc to be grayscale. Equivalent to gst-launch-1.0 videotestsrc ! video/x-raw,format=GRAY8 ! videoconvert ! autovideosink |
[링크 : https://gstreamer.freedesktop.org/documentation/coreelements/capsfilter.html?gi-language=c]
| gstreamer pipeline (0) | 2025.08.22 |
|---|---|
| gstreamer tee 예제 (0) | 2025.08.21 |
| gstreamer parse_launch (0) | 2024.01.11 |
| nnstreamer (0) | 2023.12.20 |
| gst-device-monitor-1.0 (0) | 2023.12.06 |
윈도우에서 다뤄보고 리눅스로 오니 정밀모드가 없어서 찾아보다 발견한 드라이버
[링크 : https://opentabletdriver.net/]
[링크 : https://www.reddit.com/r/wacom/comments/18s5kjm/is_there_a_way_to_disable_the_dim_overlay_on/]
플러그 인들이 있는데 PrecisionControl을 설치하면 DPI 제어가 가능해지는 듯.
[링크 : https://github.com/X9VoiD/VoiDPlugins/wiki/PrecisionControl]
| ubuntu wacom express key 에 esc 등록하기 (0) | 2025.08.29 |
|---|---|
| ubuntu에서 wacom 활성영역 설정하기 (0) | 2025.08.28 |
| 와콤 펜 종류 (0) | 2025.08.18 |
| wacom 진단 (0) | 2025.08.18 |
| wacom on window (2) | 2025.08.18 |
이전에 사용하고 있던 0x08의 온도가 어떤 온도를 측정하고 있는건지 보는데 영 안나오네
레지스터 자체에서는 온도를 돌려준다로 끝이고

함수명으로 검색해보니 셀의 온도를 돌려준다..? 셀의 온도를 어떻게 측정하지?

벤더명령어를 이용하면 내부온도 / Thermistor 온도 1~4를 획득이 가능하다고 한다.

어떤 온도를 활성화 할지는 아래 레지스터에서 설정하고

특정 온도를 셀 온도로 간주해주면 되는건가?

그런데 0x0072와는 무슨 차이인걸까?


[링크 : https://www.ti.com/lit/ug/sluua43a/sluua43a.pdf?ts=1755744458780]
| ptn5110 usb-pd rdo 응답 (0) | 2025.01.15 |
|---|---|
| ad5292 wiper 값 (0) | 2025.01.06 |
| ads8598 (0) | 2024.11.13 |
| ad4111 (0) | 2024.11.07 |
| ad5292 write protect (0) | 2024.11.07 |