'프로그램 사용'에 해당되는 글 2358건

  1. 2025.09.15 iperf3 udp 속도 테스트 on rpi 4
  2. 2025.09.11 gstpipelinestudio
  3. 2025.09.11 hackrf portapack (portable)
  4. 2025.09.11 gnuradio LoRa
  5. 2025.09.08 ssh -t
  6. 2025.09.05 nnstreamer ubuntu package
  7. 2025.09.05 gemini + claude MCP
  8. 2025.09.05 mean Average Precision(mAP)
  9. 2025.09.05 내장 그래픽으로 ROCm?
  10. 2025.09.04 ai 모델들 조사
프로그램 사용/iperf2025. 9. 15. 12:45

라즈베리 4 가 성능이 좋아도..

GbE UDP 테스트 하니 2세대 노트북에서 80% 쳐먹으시고

13세대에서도 25~30% 쳐드시는데

 

이걸 어떻게 해야하나 찾아보는데

이전에 이런 옵션으로 zerocpy 해서 부하를 줄여보려고 했는데

$ iperf3 -c localhost -u -f m -b 1000M -Z

 

pid 작은게 받는 쪽 pid 큰게 보내는 쪽. 대충 17.8%(클라) -> 10.9% (서버)

1988904 minimonk   20   0    8316   3968   3456 S  17.8   0.0   0:01.01 iperf3                                                                                                                       
1988889 minimonk   20   0    8316   3840   3328 S  10.9   0.0   0:01.60 iperf3   

 

-l 64k는 왜 안되는지 모르겠고 63k는 먹는데

$ iperf3 -c localhost -u -f m -b 1000M -Z -l 63K

 

pid 작은게 받는 쪽 pid 큰게 보내는 쪽. 대충 14.7%(클라) -> 8.8% (서버)

1988975 minimonk   20   0    8348   3968   3456 S  14.7   0.0   0:00.61 iperf3                                                                                                                        
1988889 minimonk   20   0    8348   3840   3328 S   8.8   0.0   0:03.46 iperf3   

 

이렇게 옵션 주고 하니 라즈베리 4에서도 UDP로 GbE 잘 뽑아낸다. 휴..

[링크 : https://serverfault.com/questions/813413/how-to-set-the-udp-packet-size-with-iperf3]

'프로그램 사용 > iperf' 카테고리의 다른 글

iperf3 jumbo packet?  (0) 2025.02.15
iperf 파일로 바로바로 떨궈서 tail로 보기  (0) 2025.02.10
iperf3  (0) 2023.07.28
iperf udp 테스트  (0) 2022.03.14
iperf로 100M 랜 / IEEE1394 대역폭 측정  (2) 2011.12.07
Posted by 구차니

2021년 시작해서 2022년 이후로는 수정이 없는 프로젝트

그래도 보면서 할 수 있으면 괜찮아 보이는데, 한번 설치해서 해봐야겠다

[링크 : https://github.com/patrickelectric/GstPipelineStudio?tab=readme-ov-file]

[링크 : https://blogs.igalia.com/scerveau/introducing-gstpipelinestudio-0-3-4/]

'프로그램 사용 > gstreamer' 카테고리의 다른 글

gstreamer 기초  (0) 2025.08.27
gstreamer pipeline  (0) 2025.08.22
gstreamer tee 예제  (0) 2025.08.21
gstreamer capsfilter  (0) 2025.08.21
gstreamer parse_launch  (0) 2024.01.11
Posted by 구차니
프로그램 사용/rtl-sdr2025. 9. 11. 10:47

hackrf 라서 rx tx 다 되는 sdr이 있는데

그걸 포터블 버전으로 만들어 주는 add-on이 알리에서 보이길래 검색

 

원본(?)

[링크 : https://github.com/sharebrained/portapack-hackrf/]

  [링크 : https://sharebrained.com/portapack/]

 

portapack 을 fork

[링크  : https://github.com/furrtek/portapack-havoc/]

 

havoc을 fork. 그러나 portapack에서 정식으로 인정?

[링크 : https://github.com/portapack-mayhem/mayhem-firmware]

'프로그램 사용 > rtl-sdr' 카테고리의 다른 글

gnuradio LoRa  (0) 2025.09.11
gnuradio dvb-t  (0) 2025.04.02
openwebrx  (0) 2024.09.06
gnu radio를 이용한 커스텀 gqrx 만들기  (0) 2024.09.06
pulseaudio error : access denied  (0) 2024.08.26
Posted by 구차니
프로그램 사용/rtl-sdr2025. 9. 11. 10:31

gnu radio에서 lora의 패킷을 볼 수 있으려나?

 

Functionalities
Sending and receiving LoRa packets between USRP-USRP and USRP-commercial LoRa transceiver (tested with RFM95, SX1276, SX1262).

Parameters available:

Spreading factors: 5-12*
Coding rates: 0-4
Implicit and explicit header mode
Payload length: 1-255 bytes
Sync word selection (network ID)
Verification of payload CRC
Verification of explicit header checksum
Low datarate optimisation mode
Utilisation of soft-decision decoding for improved performances
* Spreading factors 5 and 6 are not compatible with SX126x.

[링크 : https://github.com/tapparelj/gr-lora_sdr]

 

Hardware support
The following LoRa modules and SDRs were tested and work with gr-lora:

Transmitters: Pycom LoPy, Dragino LoRa Raspberry Pi HAT, Adafruit Feather 32u4, Microchip RN 2483 (custom board), SX1276(Custom Board with STM32 Support) Receivers: HackRF One, USRP B201, RTL-SDR, LimeSDR(LMS7002M)-LimeSDR USB.

[링크 : https://github.com/rpp0/gr-lora]

 

'프로그램 사용 > rtl-sdr' 카테고리의 다른 글

hackrf portapack (portable)  (0) 2025.09.11
gnuradio dvb-t  (0) 2025.04.02
openwebrx  (0) 2024.09.06
gnu radio를 이용한 커스텀 gqrx 만들기  (0) 2024.09.06
pulseaudio error : access denied  (0) 2024.08.26
Posted by 구차니

ssh를 통해 iperf3 -s 옵션으로 실행 했는데

결과 내용이 ssh 터미널을 통해 나오지 않아서 3 ai들에게 물어보니

cluade가 알려줌. 그 와중에 gemini는 도움이 안되고 chatGPT는 파일로 떨구라고 알려줌.. (야이 -_-)

 

아무튼 -t 라는 옵션을 주면 잘 나온다. 신기하네..

     -T      Disable pseudo-terminal allocation.

     -t      Force pseudo-terminal allocation.  This can be used to execute
             arbitrary screen-based programs on a remote machine, which can be
             very useful, e.g. when implementing menu services.  Multiple -t
             options force tty allocation, even if ssh has no local tty.

 

iperf3 가 취소되어 종료되고 나서 한번에 iperf3 서버쪽 결과가 나옴. 일종의 버퍼링 상태인가..

ssh localhost "iperf3 -s"  
  iperf3 -c localhost
Connecting to host localhost, port 5201
[  5] local 127.0.0.1 port 43416 connected to 127.0.0.1 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  5.94 GBytes  51.0 Gbits/sec    0   1.31 MBytes       
[  5]   1.00-2.00   sec  6.09 GBytes  52.3 Gbits/sec    0   1.31 MBytes       
[  5]   2.00-3.00   sec  5.79 GBytes  49.7 Gbits/sec    0   1.31 MBytes       
^C[  5]   3.00-3.37   sec  2.26 GBytes  51.8 Gbits/sec    0   1.31 MBytes 
iperf3: the client has terminated
-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------
Accepted connection from 127.0.0.1, port 43412
[  5] local 127.0.0.1 port 5201 connected to 127.0.0.1 port 43416
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-1.00   sec  5.72 GBytes  49.1 Gbits/sec                  
[  5]   1.00-2.00   sec  6.09 GBytes  52.3 Gbits/sec                  
[  5]   2.00-3.00   sec  5.81 GBytes  49.9 Gbits/sec                  
[  5]   2.00-3.00   sec  5.81 GBytes  49.9 Gbits/sec                  
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-3.00   sec  20.1 GBytes  57.5 Gbits/sec                  receiver
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-3.37   sec  20.1 GBytes  51.1 Gbits/sec    0             sender
[  5]   0.00-3.37   sec  0.00 Bytes  0.00 bits/sec                  receiver
iperf3: interrupt - the client has terminated

 

그 와중에 iperf3 -s 를 실행한 ssh를 종료하면 PPID 1번으로 붙어 버린다. 야이 -_-

마치 -D / --daemon 옵션을 주고 한 것 같아지냐

$ ps -ef | grep iperf3
falinux   811482       1  2 12:12 ?        00:00:02 iperf3 -s

 

딱이네.. 머지? 터미널이 없으면 자동으로 daemon 모드로 작동하나?

$ iperf3 -D -s
$ ps -ef | grep iperf3
user   811482       1  1 12:12 ?        00:00:02 iperf3 -s

 

아무튼 대망의(?) -t 옵션. 잘 된다.

ssh -t localhost "iperf3 -s"
-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------
 
Accepted connection from 127.0.0.1, port 60822
[  5] local 127.0.0.1 port 5201 connected to 127.0.0.1 port 60830
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-1.00   sec  5.48 GBytes  47.0 Gbits/sec                  
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-1.00   sec  5.48 GBytes  47.0 Gbits/sec                  
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-1.00   sec  7.60 GBytes  65.3 Gbits/sec                  receiver
iperf3: the client has terminated
-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------
iperf3 -c localhost
Connecting to host localhost, port 5201
[  5] local 127.0.0.1 port 60830 connected to 127.0.0.1 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  5.70 GBytes  49.0 Gbits/sec    0   1.25 MBytes       
^C[  5]   1.00-1.32   sec  1.90 GBytes  50.5 Gbits/sec    0   1.25 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-1.32   sec  7.60 GBytes  49.4 Gbits/sec    0             sender
[  5]   0.00-1.32   sec  0.00 Bytes  0.00 bits/sec                  receiver
iperf3: interrupt - the client has terminated

[링크 : https://stackoverflow.com/questions/42505339/why-use-t-with-ssh]

'프로그램 사용 > ssh scp sftp' 카테고리의 다른 글

ssh-copy-id  (0) 2025.04.18
ssh socks proxy  (0) 2024.07.22
ssh ecdsa 미지원(ubuntu 22.04)  (0) 2023.05.30
ubuntu ssh x11 forwarding시 gnome 화면 끌어오기  (0) 2022.07.11
ssh 슈도 터미널 실행  (0) 2022.04.25
Posted by 구차니

mobivius 가 있긴한데.. 해봐? ㅋㅋㅋ

 

Getting Started: Ubuntu-PPA Install
Install via PPA repository (Ubuntu)
The nnstreamer releases are at a PPA repository. In order to install it, use:

$ sudo apt-add-repository ppa:nnstreamer
$ sudo apt install nnstreamer

Additional plugins available
nnstreamer-caffe2 : Allows to use caffe2 models in a pipeline. (From pytorch 1.3.1 by default)
nnstreamer-cpp : Allows to use C++ classes as filters of a pipeline.
nnstreamer-cpp-dev : Required to build C++ class-filters.
nnstreamer-dev : Required to build C function-filters and to build your own nnstreamer plugins.
nnstreamer-edgetpu : Allows to use edge-TPU in a pipeline.
nnstreamer-flatbuf : Allows to convert-from and decode-to flatbuf streams.
nnstreamer-misc: Provides additional gstreamer plugins for nnstreamer pipelines. Included plugins: join.
nnstreamer-openvino : Allows to use OpenVINO (Intel), enabling Movidius-X.
nnstreamer-protobuf : Allows to convert-from and decode-to protobuf streams.
nnstreamer-python2 : Allows to use python2 classes as filters of a pipeline.
nnstreamer-python3 : Allows to use python3 classes as filters of a pipeline.
nnstreamer-pytorch : Allows to use Pytorch models in a pipeline. (From pytorch 1.3.1 by default)
nnstreamer-tensorflow : Allows to use TensorFlow models in a pipeline. (From tensorflow 1.13.1 by default)
nnstreamer-tensorflow-lite : Allows to use TensorFlow-lite models in a pipeline. (From tensorflow 1.13.1 by default)

[링크 : https://nnstreamer.github.io/getting-started-ubuntu-ppa.html]

 

대행으로 하나 살거 알리에서 x4 x1 하나씩 사도 되겠네?!

[링크 : https://ko.aliexpress.com/item/1005005293216124.html]

[링크 : http://itempage3.auction.co.kr/DetailView.aspx?itemno=D855895973]

'프로그램 사용 > intel ncs2' 카테고리의 다른 글

movidius MyriadX * 2  (1) 2025.01.08
innodisk egpa-i201-c1 Movidius Myriad X  (0) 2025.01.06
openvino myriad  (2) 2025.01.04
intel NCS2 ubuntu 설치?  (0) 2020.10.21
intel ncs2 설치  (0) 2020.10.21
Posted by 구차니

claude 에 gemini를 넣어서 하는건데 한번 시도해봐야겠다.

 

[링크 : https://toyourlight.tistory.com/152]

[링크 : https://apidog.com/kr/blog/gemini-mcp-claude-code-kr/]

'프로그램 사용 > MCP ai' 카테고리의 다른 글

gemini + blender / freecad token  (0) 2025.09.02
csm.ai  (0) 2025.09.01
gemini + ubuntu + uvx 등등등.. 뻘기록  (0) 2025.09.01
claude desktop  (0) 2025.08.31
Posted by 구차니

eIQ에서 학습하는데 train mean Average Precision 라고 써있어서 먼가 했는데

학습시에 얼마나 잘 배우고 있냐 라는 지표중에 하나라고 한다.

ROI가 얼마나 정확하게 모든 이미지에 대해서 측정하고 평균내면 그게 mAP 라고

 

[링크 : https://ctkim.tistory.com/entry/mAPMean-Average-Precision-정리]

[링크 : https://wikidocs.net/162466]

[링크 : https://littlefoxdiary.tistory.com/126]

 

그런데 학습시키면서 0.2 정도에서 수렴을 하면서 학습이 중단되는데 머가 잘못설정되서 그런걸까?

몇개글을 찾아봐도 eIQ에서 설정 가능한 항목들이 아닌것 같은데

python으로 직접 학습시켜봐야하나...

[링크 : https://github.com/ultralytics/ultralytics/issues/10226]

[링크 : https://stackoverflow.com/questions/78558728/yolo-training-with-low-precision-and-low-map]

[링크 : https://stackoverflow.com/questions/48595240/map-decreasing-with-training-tensorflow-object-detection-ssd]

'프로그램 사용 > yolo_tensorflow' 카테고리의 다른 글

내장 그래픽으로 ROCm?  (0) 2025.09.05
ai 모델들 조사  (0) 2025.09.04
NMS, soft-NMS  (0) 2024.01.15
VGG-16 / VGG-19  (0) 2024.01.11
MobileNetV2 SSD FPN-Lite  (0) 2024.01.11
Posted by 구차니

tensorflow 보면 대개 nvidia만 쓰게 되어있는데, 어떻게 tensorflow에서 AMD 쓸수 있대서 찾아보는 중

[링크 : https://yhu0409.tistory.com/14]

 

nartmada
on Mar 22, 2024
Collaborator
Hi @CardLin, unfortunately 5700G APU is not a supported HW and the workaround environment flags will have performance impact. Sorry, there will be no fix in future ROCm release for this Cezanne APU issue. Closing the ticket.

[링크 : https://github.com/ROCm/ROCm/issues/2964]

 

AMD "Vega" Architecture Gets No More ROCm Updates After Release 5.6
by btarunr Jul 3rd, 2023 14:55 Discuss (42 Comments)

[링크 : https://www.techpowerup.com/310764/amd-vega-architecture-gets-no-more-rocm-updates-after-release-5-6]

 

우분투에서 ROCm 지원하다가 vega 에 대해서는 추가 지원이 없다고 한다.

현재 최신이 6.4.3인데 5.6까지 밖에 지원안한다라..(혹은 더이상의 버그 픽스만 없다면 쓸수는 있다는건가?)

[링크 : https://rocm.docs.amd.com/en/latest/release/versions.html]

 

그럼.. 이걸 해보려면 노트북을 밀어야겠...네?!

윈도우 11도 마음에 안드는데 이 기회에?!?! ㅋㅋ

'프로그램 사용 > yolo_tensorflow' 카테고리의 다른 글

mean Average Precision(mAP)  (0) 2025.09.05
ai 모델들 조사  (0) 2025.09.04
NMS, soft-NMS  (0) 2024.01.15
VGG-16 / VGG-19  (0) 2024.01.11
MobileNetV2 SSD FPN-Lite  (0) 2024.01.11
Posted by 구차니

1060 6GB 가 내가 가진 가장 좋은(?) 녀석이라

이것에서 돌릴만한 LLM 이나 모델들 찾아보는 중.

 

3070 6GB로 돌리는 GAN 모델

[링크 : https://marcus-story.tistory.com/170]

 

gtx1060 6GB로 돌릴만한 LLM 모델

[링크 : https://www.virtualizationhowto.com/2025/05/still-worth-it-running-ai-workloads-on-a-gtx-1060-in-2025/]

 

 

'프로그램 사용 > yolo_tensorflow' 카테고리의 다른 글

mean Average Precision(mAP)  (0) 2025.09.05
내장 그래픽으로 ROCm?  (0) 2025.09.05
NMS, soft-NMS  (0) 2024.01.15
VGG-16 / VGG-19  (0) 2024.01.11
MobileNetV2 SSD FPN-Lite  (0) 2024.01.11
Posted by 구차니