1060 6GB -> 1080 Ti 11GB

기존설정대로 했더니 FHD 에서 224 프레임

4K 에 최고 품질로 했더니 80fps 와우

'개소리 왈왈 > 컴퓨터' 카테고리의 다른 글
| 듀얼 그래픽 카드! (0) | 2026.04.25 |
|---|---|
| 줍줍 성공? (0) | 2026.04.18 |
| 지를까 말까 (0) | 2026.04.13 |
| iptime 오랫만에 업데이트 (0) | 2026.02.24 |
| amd radeon software(아드레날린) 설치 (0) | 2026.02.08 |
1060 6GB -> 1080 Ti 11GB

기존설정대로 했더니 FHD 에서 224 프레임

4K 에 최고 품질로 했더니 80fps 와우

| 듀얼 그래픽 카드! (0) | 2026.04.25 |
|---|---|
| 줍줍 성공? (0) | 2026.04.18 |
| 지를까 말까 (0) | 2026.04.13 |
| iptime 오랫만에 업데이트 (0) | 2026.02.24 |
| amd radeon software(아드레날린) 설치 (0) | 2026.02.08 |
그냥 먼가 새로운 거 없이 바쁜 하루
이걸 좋은거라고 해야하나
나쁜거라고 해야하나
| 금융치료 (0) | 2026.04.14 |
|---|---|
| 좀 힘든날 (0) | 2026.04.13 |
| 중고나라 택배거래 (2) | 2026.03.10 |
| 와 지하철 왜 이따구야?!? (0) | 2026.03.03 |
| 내가 뒤쳐지는 건가.. (0) | 2026.02.16 |
음.. 그래픽 카드 사니 기분이 좋아짐
(어?)
설마.. 벽돌이 오는건 아니겠지..
(후덜덜)
| 쏘쏘 (0) | 2026.04.15 |
|---|---|
| 좀 힘든날 (0) | 2026.04.13 |
| 중고나라 택배거래 (2) | 2026.03.10 |
| 와 지하철 왜 이따구야?!? (0) | 2026.03.03 |
| 내가 뒤쳐지는 건가.. (0) | 2026.02.16 |
zotac 1080 ti 11GB
ollama 하다 보니 메모리가 좀 넉넉한게 필요해서
1060 6GB 에서 좀 점프하고 싶어지는데
블로워라서 고민중..
아.. 영롱하다
14만 + 5천 vs 근처에서 17만.. 흐음..

근데
블랙웰 > 호퍼 > 에이다 러브레이스 > 암페어 > 튜링 > 볼타 > 파스칼
어우.. 너무 구세대이긴 하다 ㅠㅠ
| 줍줍 성공? (0) | 2026.04.18 |
|---|---|
| 그래픽 카드 교체! (0) | 2026.04.16 |
| iptime 오랫만에 업데이트 (0) | 2026.02.24 |
| amd radeon software(아드레날린) 설치 (0) | 2026.02.08 |
| dp to usb-c... ? (0) | 2026.02.08 |
이래서 사람들이 조용한 퇴사를 하는건가
아니면 퇴사를 해야 하는것 인가..
[링크 : https://brunch.co.kr/@specterofficial/150]
[링크 : https://www.fortunekorea.co.kr/news/articleView.html?idxno=38156]
| 쏘쏘 (0) | 2026.04.15 |
|---|---|
| 금융치료 (0) | 2026.04.14 |
| 중고나라 택배거래 (2) | 2026.03.10 |
| 와 지하철 왜 이따구야?!? (0) | 2026.03.03 |
| 내가 뒤쳐지는 건가.. (0) | 2026.02.16 |
아는 분과 수다 떨다가 포르자 호라이즌 텔레메트리 정보에서 방향각 관련 변환 이야기 하다 얻은 키워드.
짐벌락 이야기 나오는거 보면 얼핏 본것도 같은데.. 기억이 안나네
| 회전을 표현하는 다른 방법인 Rotation Matrix(이전글)와 비교했을 때, Quaternion은 회전 계산량이 작으며 메모리 효율적이고, Gimbal Lock(짐벌락) 현상이 발생하지 않는 장점을 갖고 있습니다. 다만 직관적으로 이해하거나 시각화기가 어렵다는 단점을 갖고 있습니다. |
[링크 : https://xoft.tistory.com/110]
사원수 = 쿼터니안
그래서 i j k 라는데. 사원수면 4개 여야 하는거 아닌가 -ㅁ-?
q0 + q1i + q2j + q3k (실수 성분 하나에 허수 3개로 표시)
[링크 : https://normal-engineer.tistory.com/187]
[링크 : https://normal-engineer.tistory.com/35]
일단 대략 머리터짐 -ㅁ-
제목이 먼가 드럽게 긴데
네이버 블로그 같은데서
로컬 파일을 읽어서 사용자가 올리듯 이미지를 원하는 위치에 붙여 넣는 방법을 고민중
[링크 : https://wikidocs.net/236864] pyperclip - 클립보드 라이브러리
[링크 : https://github.com/asweigart/pyperclip]
[링크 : https://pypi.org/project/pyperclip/]
[링크 : https://wikidocs.net/85581] pyautogui - 마우스 자동화
| python switch-case -> match-case (0) | 2025.10.11 |
|---|---|
| python __name__ (0) | 2025.09.29 |
| python flask를 이용한 static web + rest api server 구현 (0) | 2025.09.29 |
| python simsimd (0) | 2025.08.28 |
| python 원하는 버전 설치 및 연결하기 (0) | 2025.08.26 |
입력 문장을 전부 입력하는게 아니라
입력 받은 문장을 임베딩하고 그걸 positional encoding 이라는걸 거쳐서
일종의 벡터값으로 입력을 받는 것으로 보인다.
[링크 : https://jkim83.tistory.com/517]
| 토큰화 및 입력 임베딩 문자, 숫자, 구두점과 같은 글자 단위는 인간이 언어를 표현하는 기본 단위이지만, AI 모델이 사용하는 언어의 최소 단위는 토큰(token)입니다. 각 토큰은 고유한 ID 번호를 부여받으며, LLM은 단어 자체나 토큰 자체가 아니라 이 ID 번호를 통해 어휘 “데이터베이스”를 탐색합니다. 이러한 언어의 토큰화는 텍스트를 처리하는 데 필요한 계산량을 크게 줄여줍니다. 트랜스포머의 어텐션 레이어에 입력할 쿼리 및 키 벡터를 생성하기 위해, 모델은 각 토큰에 대한 초기 문맥 없는 벡터 임베딩이 필요합니다. 이러한 초기 토큰 임베딩은 학습 중에 새롭게 학습되거나, 사전학습된 단어 임베딩 모델에서 가져올 수 있습니다. 위치 인코딩 단어의 순서와 위치는 그 의미론적 의미에 큰 영향을 미칠 수 있습니다. RNN의 직렬적 구조는 각 토큰의 위치 정보를 자연스럽게 보존하지만, 트랜스포머 모델은 어텐션 메커니즘이 이를 고려할 수 있도록 명시적으로 위치 정보를 추가해야 합니다. 위치 인코딩을 사용하면 모델은 입력이 어텐션 메커니즘에 들어가기 전에 상대적 위치에서 파생된 각 토큰의 임베딩에 값 벡터를 추가합니다. 두 토큰이 가까울수록 포지션 벡터는 더 유사해지고, 그에 따라 위치 정보 추가로 인해 정렬 점수가 더 높아집니다. 이렇게 하여 모델은 인접한 토큰에 더 많은 주의를 기울이도록 학습하게 됩니다. |
[링크 : https://www.ibm.com/kr-ko/think/topics/transformer-model]

| 의미를 찾는 셀프어텐션 문장을 예로 들어 살펴보겠습니다. 그녀는 주전자의 물을 컵에 따랐다. 그것이 가득 찰 때까지. 여기서 ‘그것’이 컵을 의미한다는 사실을 우리는 쉽게 알 수 있습니다. 그럼 다음의 문장을 보죠. 그녀는 주전자의 물을 컵에 따랐다. 그것이 텅 빌 때까지. 여기서 ‘그것’은 물론 주전자를 의미하겠죠. 구글 브레인(Google Brain)의 수석 연구원으로 앞서 소개한 2017년 논문의 연구를 이끈 아시시 바스와니(Ashish Vaswani)에 따르면 “의미는 사물 간 관계의 결과이고, 셀프어텐션은 관계를 배우는 일반적 방법”입니다. 그는 “기계 번역은 단어 사이의 가깝고 먼 관계들을 파악해야 하는 셀프어텐션의 확립에 좋은 수단이 되어줬습니다”며, “이제 셀프어텐션은 강력하고 유연한 학습의 도구로 완전히 자리매김했습니다”라고 덧붙였습니다. |
[링크 : https://blogs.nvidia.co.kr/blog/what-is-a-transformer-model/]
[링크 : https://www.hpe.com/kr/ko/what-is/transformer-model.html]
[링크 : https://github.com/ukairia777/tensorflow-transformer/blob/main/Transformer_Korean_Chatbot.ipynb]
[링크 : https://wikidocs.net/31379]
| 사람의 욕심은 끝이없고 - ollama multiple GPU support (0) | 2026.04.17 |
|---|---|
| ollama with 1080 Ti (0) | 2026.04.16 |
| ollama 소스코드 (0) | 2026.04.12 |
| ollama 데이터 파일 구조 및 내용 (0) | 2026.04.12 |
| ollama /set parameter num_gpu 테스트 (0) | 2026.04.12 |
python 쪽은 api 호출하는게 전부인 껍데기
| def chat( self, model: str = '', messages: Optional[Sequence[Union[Mapping[str, Any], Message]]] = None, *, tools: Optional[Sequence[Union[Mapping[str, Any], Tool, Callable]]] = None, stream: bool = False, think: Optional[Union[bool, Literal['low', 'medium', 'high']]] = None, logprobs: Optional[bool] = None, top_logprobs: Optional[int] = None, format: Optional[Union[Literal['', 'json'], JsonSchemaValue]] = None, options: Optional[Union[Mapping[str, Any], Options]] = None, keep_alive: Optional[Union[float, str]] = None, ) -> Union[ChatResponse, Iterator[ChatResponse]]: return self._request( ChatResponse, 'POST', '/api/chat', json=ChatRequest( model=model, messages=list(_copy_messages(messages)), tools=list(_copy_tools(tools)), stream=stream, think=think, logprobs=logprobs, top_logprobs=top_logprobs, format=format, options=options, keep_alive=keep_alive, ).model_dump(exclude_none=True), stream=stream, ) |
[링크 : https://github.com/ollama/ollama-python/blob/main/ollama/_client.py]
[링크 : https://github.com/ollama/ollama-python] python 라이브러리
ollama 가 본체
특이하게(?) go로 작성했네.
[링크 : https://github.com/ollama/ollama/blob/main/cmd/cmd.go]
| ollama with 1080 Ti (0) | 2026.04.16 |
|---|---|
| 트랜스포머 모델 입/출력 (0) | 2026.04.12 |
| ollama 데이터 파일 구조 및 내용 (0) | 2026.04.12 |
| ollama /set parameter num_gpu 테스트 (0) | 2026.04.12 |
| ollama cli 도움말 (0) | 2026.04.12 |
| C:\>ollama list NAME ID SIZE MODIFIED llama3.2:latest a80c4f17acd5 2.0 GB 40 hours ago gemma3:1b 8648f39daa8f 815 MB 40 hours ago llama3.1:8b 46e0c10c039e 4.9 GB 40 hours ago gemma4:e2b 7fbdbf8f5e45 7.2 GB 40 hours ago llama3.2:3b a80c4f17acd5 2.0 GB 40 hours ago |
| C:\Users\minimonk\.ollama\models\blobs>dir C 드라이브의 볼륨에는 이름이 없습니다. 볼륨 일련 번호: 6A30-5BAD C:\Users\minimonk\.ollama\models\blobs 디렉터리 2026-04-10 오후 11:33 <DIR> . 2026-04-10 오후 10:51 <DIR> .. 2026-04-10 오후 11:11 12,320 sha256-0ba8f0e314b4264dfd19df045cde9d4c394a52474bf92ed6a3de22a4ca31a177 2026-04-10 오후 11:33 492 sha256-120007c81bf8b4eb54e896a4a3e5ff9949f124b0ea42295277c8523f7fa9c7f6 2026-04-10 오후 11:33 77 sha256-3116c52250752e00dd06b16382e952bd33c34fd79fc4fe3a5d2c77cf7de1b14b 2026-04-10 오후 11:07 561 sha256-34bb5ab01051a11372a91f95f3fbbc51173eed8e7f13ec395b9ae9b8bd0e242b 2026-04-10 오후 11:11 487 sha256-455f34728c9b5dd3376378bfb809ee166c145b0b4c1f1a6feca069055066ef9a 2026-04-10 오후 11:10 7,162,394,016 sha256-4e30e2665218745ef463f722c0bf86be0cab6ee676320f1cfadf91e989107448 2026-04-10 오후 11:10 42 sha256-56380ca2ab89f1f68c283f4d50863c0bcab52ae3f1b9a88e4ab5617b176f71a3 2026-04-10 오후 11:07 96 sha256-56bb8bd477a519ffa694fc449c2413c6f0e1d3b1c88fa7e3c9d88d3ae49d4dcb 2026-04-10 오후 11:11 4,920,738,944 sha256-667b0c1932bc6ffc593ed1d03f895bf2dc8dc6df21db3042284a6f4416b06a29 2026-04-10 오후 11:10 11,355 sha256-7339fa418c9ad3e8e12e74ad0fd26a9cc4be8703f9c110728a992b193be85cb2 2026-04-10 오후 11:33 815,310,432 sha256-7cd4618c1faf8b7233c6c906dac1694b6a47684b37b8895d470ac688520b9c01 2026-04-10 오후 11:11 1,481 sha256-948af2743fc78a328dcb3b0f5a31b3d75f415840fdb699e8b1235978392ecf85 2026-04-10 오후 11:07 1,429 sha256-966de95ca8a62200913e3f8bfbf84c8494536f1b94b49166851e76644e966396 2026-04-10 오후 11:07 6,016 sha256-a70ff7e570d97baaf4e62ac6e6ad9975e04caa6d900d3742d37698494479e0cd 2026-04-10 오후 11:10 473 sha256-c6bc3775a3fa9935ce4a3ccd7abc59e936c3de9308d2cc090516012f43ed9c07 2026-04-10 오후 11:33 8,432 sha256-dd084c7d92a3c1c14cc09ae77153b903fd2024b64a100a0cc8ec9316063d2dbc 2026-04-10 오후 11:06 2,019,377,376 sha256-dde5aa3fc5ffc17176b5e8bdc82f587b24b2678c6c66101bf7da77af9f7ccdff 2026-04-10 오후 11:33 358 sha256-e0a42594d802e5d31cdc786deb4823edb8adff66094d49de8fffe976d753e348 2026-04-10 오후 11:07 7,711 sha256-fcc5a6bec9daf9b561a68827b67ab6088e1dba9d1fa2a50d7bbcc8384e0a265d 19개 파일 14,917,872,098 바이트 2개 디렉터리 353,433,444,352 바이트 남음 C:\Users\minimonk\.ollama\models\manifests\registry.ollama.ai\library>dir C 드라이브의 볼륨에는 이름이 없습니다. 볼륨 일련 번호: 6A30-5BAD C:\Users\minimonk\.ollama\models\manifests\registry.ollama.ai\library 디렉터리 2026-04-10 오후 11:33 <DIR> . 2026-04-10 오후 11:07 <DIR> .. 2026-04-10 오후 11:33 <DIR> gemma3 2026-04-10 오후 11:10 <DIR> gemma4 2026-04-10 오후 11:11 <DIR> llama3.1 2026-04-10 오후 11:36 <DIR> llama3.2 0개 파일 0 바이트 6개 디렉터리 353,433,411,584 바이트 남음 |
| C:\Users\minimonk\.ollama\models\manifests\registry.ollama.ai\library\llama3.2>dir C 드라이브의 볼륨에는 이름이 없습니다. 볼륨 일련 번호: 6A30-5BAD C:\Users\minimonk\.ollama\models\manifests\registry.ollama.ai\library\llama3.2 디렉터리 2026-04-10 오후 11:36 2026-04-10 오후 11:33 2026-04-10 오후 11:07 1,005 3b 2026-04-10 오후 11:36 1,005 latest 2개 파일 2,010 바이트 2개 디렉터리 353,430,896,640 바이트 남음 |
| C:\Users\minimonk\.ollama\models\manifests\registry.ollama.ai\library\llama3.2>type latest { "schemaVersion": 2, "mediaType": "application/vnd.docker.distribution.manifest.v2+json", "config": { "mediaType": "application/vnd.docker.container.image.v1+json", "digest": "sha256:34bb5ab01051a11372a91f95f3fbbc51173eed8e7f13ec395b9ae9b8bd0e242b", "size": 561 }, "layers": [ { "mediaType": "application/vnd.ollama.image.model", "digest": "sha256:dde5aa3fc5ffc17176b5e8bdc82f587b24b2678c6c66101bf7da77af9f7ccdff", "size": 2019377376 }, { "mediaType": "application/vnd.ollama.image.template", "digest": "sha256:966de95ca8a62200913e3f8bfbf84c8494536f1b94b49166851e76644e966396", "size": 1429 }, { "mediaType": "application/vnd.ollama.image.license", "digest": "sha256:fcc5a6bec9daf9b561a68827b67ab6088e1dba9d1fa2a50d7bbcc8384e0a265d", "size": 7711 }, { "mediaType": "application/vnd.ollama.image.license", "digest": "sha256:a70ff7e570d97baaf4e62ac6e6ad9975e04caa6d900d3742d37698494479e0cd", "size": 6016 }, { "mediaType": "application/vnd.ollama.image.params", "digest": "sha256:56bb8bd477a519ffa694fc449c2413c6f0e1d3b1c88fa7e3c9d88d3ae49d4dcb", "size": 96 } ] } |
| C:\>ollama show llama3.2:latest Model architecture llama parameters 3.2B context length 131072 embedding length 3072 quantization Q4_K_M Capabilities completion tools Parameters stop "<|start_header_id|>" stop "<|end_header_id|>" stop "<|eot_id|>" License LLAMA 3.2 COMMUNITY LICENSE AGREEMENT Llama 3.2 Version Release Date: September 25, 2024 ... |
| 트랜스포머 모델 입/출력 (0) | 2026.04.12 |
|---|---|
| ollama 소스코드 (0) | 2026.04.12 |
| ollama /set parameter num_gpu 테스트 (0) | 2026.04.12 |
| ollama cli 도움말 (0) | 2026.04.12 |
| ollama cpu only (0) | 2026.04.11 |