python 쪽은 api 호출하는게 전부인 껍데기
| def chat( self, model: str = '', messages: Optional[Sequence[Union[Mapping[str, Any], Message]]] = None, *, tools: Optional[Sequence[Union[Mapping[str, Any], Tool, Callable]]] = None, stream: bool = False, think: Optional[Union[bool, Literal['low', 'medium', 'high']]] = None, logprobs: Optional[bool] = None, top_logprobs: Optional[int] = None, format: Optional[Union[Literal['', 'json'], JsonSchemaValue]] = None, options: Optional[Union[Mapping[str, Any], Options]] = None, keep_alive: Optional[Union[float, str]] = None, ) -> Union[ChatResponse, Iterator[ChatResponse]]: return self._request( ChatResponse, 'POST', '/api/chat', json=ChatRequest( model=model, messages=list(_copy_messages(messages)), tools=list(_copy_tools(tools)), stream=stream, think=think, logprobs=logprobs, top_logprobs=top_logprobs, format=format, options=options, keep_alive=keep_alive, ).model_dump(exclude_none=True), stream=stream, ) |
[링크 : https://github.com/ollama/ollama-python/blob/main/ollama/_client.py]
[링크 : https://github.com/ollama/ollama-python] python 라이브러리
ollama 가 본체
특이하게(?) go로 작성했네.
[링크 : https://github.com/ollama/ollama/blob/main/cmd/cmd.go]
'프로그램 사용 > ai 프로그램' 카테고리의 다른 글
| 트랜스포머 모델 입/출력 (0) | 2026.04.12 |
|---|---|
| ollama 데이터 파일 구조 및 내용 (0) | 2026.04.12 |
| ollama /set parameter num_gpu 테스트 (0) | 2026.04.12 |
| ollama cli 도움말 (0) | 2026.04.12 |
| ollama cpu only (0) | 2026.04.11 |
