'프로그램 사용 > ai 프로그램' 카테고리의 다른 글
| llama.cpp 와 ollama 성능 비교.. (cpu는 차이가 없?) (0) | 2026.04.22 |
|---|---|
| llama.cpp 도전! (0) | 2026.04.22 |
| ollama 외부접속 관련 (0) | 2026.04.21 |
| llm tokenizer - llama 3.2, exaone (0) | 2026.04.20 |
| ollama 모델 저장소 뜯어보기 (0) | 2026.04.19 |
| llama.cpp 와 ollama 성능 비교.. (cpu는 차이가 없?) (0) | 2026.04.22 |
|---|---|
| llama.cpp 도전! (0) | 2026.04.22 |
| ollama 외부접속 관련 (0) | 2026.04.21 |
| llm tokenizer - llama 3.2, exaone (0) | 2026.04.20 |
| ollama 모델 저장소 뜯어보기 (0) | 2026.04.19 |
리눅스에서 그냥 설치만 하고 딱히 설정한건 없는데, 기본이 모든 ip 접속 허용인 것 같고
| $ netstat -tnlp (Not all processes could be identified, non-owned process info will not be shown, you would have to be root to see it all.) Active Internet connections (only servers) Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name tcp 0 0 127.0.0.1:11434 0.0.0.0:* LISTEN - |
윈도우의 경우 gui 클라이언트에서 설정하는게 보이던데.. 막상 포트는 확인을 안해본듯..
[링크 : http://practical.kr/?p=809]
| llama.cpp 도전! (0) | 2026.04.22 |
|---|---|
| unsloth ai (0) | 2026.04.21 |
| llm tokenizer - llama 3.2, exaone (0) | 2026.04.20 |
| ollama 모델 저장소 뜯어보기 (0) | 2026.04.19 |
| llm tokenizer - phi3 (0) | 2026.04.19 |
jetracer 찾다가 이상한 키워드 발견.
rc카 안쓰고 그냥 3d 프린터로 대충(?) 만드는 건가?
아무튼 opencv 기반 영상인식 라이브러리로 작동하는것 같다.
[링크 : https://robertchoi.gitbook.io/jetracer/2.1/2.1.3]
[링크 : https://github.com/martyniak/fork-waveshare-donkeycar]
| jetson nano nvcc 빌드 (0) | 2026.04.06 |
|---|---|
| jetson nvcc 실행하기 (0) | 2026.04.06 |
| jetson nano 2gb dev kit EOL 근접 (0) | 2026.04.05 |
| jetracer에 사용할 보호회로 없는 배터리 구매 (2) | 2026.04.04 |
| jetracer ina219 배터리 모니터링 ic (0) | 2026.04.04 |
이럴 땐 AI가 짱이구만(검증하려고 찾으려면 어우...)
부팅 순서
SEC (Security Phase)
PEI (Pre-EFI Initialization)
DXE (Driver Execution Environment)
BDS (Boot Device Selection)
[링크 : https://chatgpt.com/share/69e5bbfb-e140-83e8-81fb-9ef5439c131f]
에러 코드가 부팅 순서대로 라면.. SEC / PEI / DXE / BDS 순서로 나오는게 맞다.. 고 해야하나?
아무튼 주로 걸리는데 67 / 69 혹은 b7 / b9 인데 System Agent DXE 초기화 단계 뻗느것 같다.
내용으로는 PEI는 단순하게 메모리 컨트롤러 설정이라면
DXE 쪽에서는 실제로 메모리로 데이터를 올려서 부팅을 진행하거나 채널 설정등을 실제로 하는 것 같은데
그래서 어떻게 보면 메모리와 1도 관련없는 메시지이지만 실제로 메모리 문제로 발생하는 것으로 보이는 것 같다.





[링크 : https://www.asus.com/kr/motherboards-components/motherboards/workstation/z10ped16_ws/]
| 품질 관리 체크리스트 - p0 p1 p2 p3? (0) | 2026.04.23 |
|---|---|
| intel hex 포맷 (0) | 2026.03.24 |
| sd 카드 spi 모드 관련 조사 (0) | 2026.03.17 |
| cpuz 와 메모리 타이밍 (0) | 2026.01.27 |
| mPCIe pinout usb (0) | 2026.01.21 |
간간히 appimage 확장자로 받아서 실행하는건 봤는데 어떻게 만들어지나는 몰라서 찾아봄
[링크 : https://appimagelauncher.com/]
[링크 : https://github.com/TheAssassin/AppImageLauncher]
[링크 : https://github.com/linuxdeploy/linuxdeploy-plugin-appimage]
| usb device tree viewer (0) | 2026.02.22 |
|---|---|
| exaone 경량 모델 (0) | 2026.02.04 |
| podman (0) | 2026.01.25 |
| elinks (0) | 2026.01.20 |
| platformio (0) | 2026.01.17 |
| vi 이전 위치 다음 위치로 이동하기 (0) | 2022.08.04 |
|---|---|
| vi가 늦게 켜지는 이유 (0) | 2022.07.28 |
| vim 색상 바꾸기(colorscheme) (0) | 2021.01.20 |
| vi 에서 매칭되는 갯수 확인하기 (0) | 2019.12.18 |
| vi gg=G와 set ts (0) | 2019.07.04 |
음.. tokenizer.json에 대한 접근이 신청 20분 만에 떨어졌었나 보다. (아몰라 잘래 하고 가버렸...)
llama가 한글에 대한 토큰이 하나도 없는데 어떻게 인식을 하지 신기하네..?
정규표현식을 보면 ? 가 있는데 매칭안되면 그냥 한글자씩 뽑아 버리는듯.. ㅎㄷㄷ
| { "version": "1.0", "truncation": null, "padding": null, "added_tokens": [ { "id": 128000, "content": "<|begin_of_text|>", "single_word": false, "lstrip": false, "rstrip": false, "normalized": false, "special": true }, { "id": 128001, "content": "<|end_of_text|>", "single_word": false, "lstrip": false, "rstrip": false, "normalized": false, "special": true }, ], "normalizer": null, "pre_tokenizer": { "type": "Sequence", "pretokenizers": [ { "type": "Split", "pattern": { "Regex": "(?i:'s|'t|'re|'ve|'m|'ll|'d)|[^\\r\\n\\p{L}\\p{N}]?\\p{L}+|\\p{N}{1,3}| ?[^\\s\\p{L}\\p{N}]+[\\r\\n]*|\\s*[\\r\\n]+|\\s+(?!\\S)|\\s+" }, "behavior": "Isolated", "invert": false }, { "type": "ByteLevel", "add_prefix_space": false, "trim_offsets": true, "use_regex": false } ] }, // ... "model": { "type": "BPE", "dropout": null, "unk_token": null, "continuing_subword_prefix": null, "end_of_word_suffix": null, "fuse_unk": false, "byte_fallback": false, "ignore_merges": true, "vocab": { "!": 0, "\"": 1, "#": 2, "$": 3, "%": 4, // ... "ÙĨب": 127996, "ĠвÑĭÑģокой": 127997, "ãĥ¼ãĥ¼": 127998, "éͦ": 127999 }, "merges": [ "Ġ Ġ", "Ġ ĠĠĠ", // ... "ãĥ¼ ãĥ¼", "ãĥ¼ãĥ ¼", "éĶ ¦" ] } } |
[링크 : https://huggingface.co/meta-llama/Llama-3.2-1B/tree/main]
엥.. exaone은 그래도 LG에서 만들어서 한글 토큰들이 있을 줄 알았는데 없네?
그럼.. 한글은 '자동차' 면은 자/동/차 총 3개 토큰을 먹는건가?
| $ grep -P '\p{Hangul}' exa_tokenizer.json "content": "리앙쿠르", "content": "훈민정음", "content": "애국가", "리앙쿠르": 94, "훈민정음": 99, "애국가": 100, |
[링크 : https://huggingface.co/LGAI-EXAONE/EXAONE-4.5-33B/tree/main]
| unsloth ai (0) | 2026.04.21 |
|---|---|
| ollama 외부접속 관련 (0) | 2026.04.21 |
| ollama 모델 저장소 뜯어보기 (0) | 2026.04.19 |
| llm tokenizer - phi3 (0) | 2026.04.19 |
| llm tokenizer (0) | 2026.04.17 |
blob 으로 해시가 파일 명으로 저장되는데 이래저래 궁금해서 분석
| gemma4 e2b { "schemaVersion": 2, "mediaType": "application/vnd.docker.distribution.manifest.v2+json", "config": { "mediaType": "application/vnd.docker.container.image.v1+json", "digest": "sha256:c6bc3775a3fa9935ce4a3ccd7abc59e936c3de9308d2cc090516012f43ed9c07", "size": 473 }, "layers": [ { "mediaType": "application/vnd.ollama.image.model", "digest": "sha256:4e30e2665218745ef463f722c0bf86be0cab6ee676320f1cfadf91e989107448", "size": 7162394016 }, { "mediaType": "application/vnd.ollama.image.license", "digest": "sha256:7339fa418c9ad3e8e12e74ad0fd26a9cc4be8703f9c110728a992b193be85cb2", "size": 11355 }, { "mediaType": "application/vnd.ollama.image.params", "digest": "sha256:56380ca2ab89f1f68c283f4d50863c0bcab52ae3f1b9a88e4ab5617b176f71a3", "size": 42 } ] } "sha256:c6bc3775a3fa9935ce4a3ccd7abc59e936c3de9308d2cc090516012f43ed9c07", { "model_format": "gguf", "model_family": "gemma4", "model_families": [ "gemma4" ], "model_type": "5.1B", "file_type": "Q4_K_M", "renderer": "gemma4", "parser": "gemma4", "requires": "0.20.0", "architecture": "amd64", "os": "linux", "rootfs": { "type": "layers", "diff_ids": [ "sha256:4e30e2665218745ef463f722c0bf86be0cab6ee676320f1cfadf91e989107448", "sha256:7339fa418c9ad3e8e12e74ad0fd26a9cc4be8703f9c110728a992b193be85cb2", "sha256:56380ca2ab89f1f68c283f4d50863c0bcab52ae3f1b9a88e4ab5617b176f71a3" ] } } "sha256:4e30e2665218745ef463f722c0bf86be0cab6ee676320f1cfadf91e989107448" GGUF ? 7 gemma4.attention.head_count "sha256:7339fa418c9ad3e8e12e74ad0fd26a9cc4be8703f9c110728a992b193be85cb2", Apache License Version 2.0, January 2004 http://www.apache.org/licenses/ "sha256:56380ca2ab89f1f68c283f4d50863c0bcab52ae3f1b9a88e4ab5617b176f71a3", { "temperature": 1, "top_k": 64, "top_p": 0.95 } |
출력단 손보는 건 temperature, top_k, top_p 군
[링크 : https://wikidocs.net/333750]
허깅페이스에서는 tokenzier.json이 존재했는데 그건 구버전(?) 인것 같고
신버전 GGUF 에서는 토크나이저를 다 포함하고 있나 본데.. 어떻게 추출하지?
[링크 : https://www.minzkn.com/vibecoding/pages/gguf-format.html]
[링크 : https://huggingface.co/docs/transformers/ko/gguf]
[링크 : https://bitwise-life.tistory.com/5] << 토큰 목록 나옴
| ollama 외부접속 관련 (0) | 2026.04.21 |
|---|---|
| llm tokenizer - llama 3.2, exaone (0) | 2026.04.20 |
| llm tokenizer - phi3 (0) | 2026.04.19 |
| llm tokenizer (0) | 2026.04.17 |
| llama.cpp (0) | 2026.04.17 |
llama나 gemma 받으려니 먼가 모르겠어서 만만한(?) ms의 phi3를 받아서 분석!
(gemma나 llama 는 저장소 접근권한 요청.. gate model 이라고 뜨는데 언제 승인되려나)
[링크 : https://huggingface.co/docs/transformers/model_doc/phi3]
| ~/.cache/huggingface/hub/models--microsoft--Phi-3-mini-4k-instruct/snapshots/f39ac1d28e925b323eae81227eaba4464caced4e$ ls -al 합계 12 drwxrwxr-x 2 minimonk minimonk 4096 4월 19 21:58 . drwxrwxr-x 3 minimonk minimonk 4096 4월 19 21:58 .. lrwxrwxrwx 1 minimonk minimonk 52 4월 19 21:58 added_tokens.json -> ../../blobs/178968dec606c790aa335e9142f6afec37288470 lrwxrwxrwx 1 minimonk minimonk 52 4월 19 21:58 config.json -> ../../blobs/b9b031fadda61a035b2e8ceb4362cbf604002b21 lrwxrwxrwx 1 minimonk minimonk 52 4월 19 21:58 special_tokens_map.json -> ../../blobs/c6a944b4d49ce5d79030250ed6bdcbb1a65dfda1 lrwxrwxrwx 1 minimonk minimonk 52 4월 19 21:58 tokenizer.json -> ../../blobs/88ec145f4e7684c009bc6d55df24bb82c7d3c379 lrwxrwxrwx 1 minimonk minimonk 76 4월 19 21:58 tokenizer.model -> ../../blobs/9e556afd44213b6bd1be2b850ebbbd98f5481437a8021afaf58ee7fb1818d347 lrwxrwxrwx 1 minimonk minimonk 52 4월 19 21:58 tokenizer_config.json -> ../../blobs/67aa82cddb4d66391ddf31ff99f059239bd2d1e7 |
tokenizer.json 열어보니 아래처럼 토큰이 나오는데..
어우.. 이런 추세(?) 라면 한글은 한글짜 단위로 토큰이라 난리가 나겠는데?
gpt 도움으로 저런 희한한 문자열 코드 기반으로 검색이 되는걸 알았네 ㄷㄷ
| $ grep -P '\p{Hangul}' tokenizer.json "이": 30393, "의": 30708, "다": 30709, "스": 30784, "사": 30791, "지": 30811, "리": 30826, "기": 30827, "정": 30852, "아": 30860, "한": 30877, "시": 30889, "대": 30890, "가": 30903, "로": 30906, "인": 30918, "하": 30944, "수": 30970, "주": 30981, "동": 31000, "자": 31013, "에": 31054, "니": 31063, "는": 31081, "서": 31093, "김": 31102, "성": 31126, "어": 31129, "도": 31136, "고": 31137, "일": 31153, "상": 31158, "전": 31170, "트": 31177, "소": 31189, "라": 31197, "원": 31198, "보": 31199, "나": 31207, "화": 31225, "구": 31231, "신": 31262, "부": 31279, "연": 31285, "을": 31286, "영": 31288, "국": 31293, "장": 31299, "제": 31306, "우": 31327, "공": 31334, "선": 31345, "오": 31346, "은": 31354, "미": 31362, "경": 31378, "문": 31406, "조": 31408, "마": 31417, "해": 31435, "여": 31457, "산": 31458, "비": 31487, "드": 31493, "를": 31517, "요": 31527, "유": 31533, "진": 31536, "천": 31563, "년": 31571, "세": 31578, "민": 31582, "호": 31603, "그": 31607, "현": 31680, "군": 31699, "무": 31716, "위": 31724, "안": 31734, "박": 31736, "용": 31737, "단": 31746, "면": 31747, "남": 31754, "강": 31774, "씨": 31781, "개": 31789, "들": 31804, "차": 31817, "학": 31822, "만": 31826, "터": 31856, "식": 31895, "과": 31906, "타": 31925, "종": 31930, "내": 31940, "중": 31941, "방": 31945, "월": 31950, "회": 31953, "모": 31962, "바": 31963, "음": 31966, "교": 31972, "재": 31973, "명": 31976, "합": 31980, "역": 31987, "백": 31989, "왕": 31996, |
| llm tokenizer - llama 3.2, exaone (0) | 2026.04.20 |
|---|---|
| ollama 모델 저장소 뜯어보기 (0) | 2026.04.19 |
| llm tokenizer (0) | 2026.04.17 |
| llama.cpp (0) | 2026.04.17 |
| lm studio (0) | 2026.04.17 |