antigravity로 귀찮아서
기존 라이브러리 (ollama)를 들어내고 openai api를 따르도록 했더니
이상하게(?) 똑똑해져서 놀랐는데
기존에도 json 형식으로 입력을 주고 있었고 그것의 role에 system과 user 등으로 나누어서 주니
사용자 질문과 분리되어 agent 상태가 바뀌는 것으로 보인다.
| 'messages': [ {'role':'user', 'content':'tell me a joke'}, {'role':'assistant', 'content':'why did the chicken cross the road'}, {'role':'user', 'content':'I don't know, why did the chicken cross the road'} ] 'messages': [ {'role':'system', 'content':'You are an assistant that speaks like Shakespeare.'}, {'role':'user', 'content':'tell me a joke'}, |
버전업되어 그런진 모르겠지만
현재 문서에는 system 대신 developer가 들어가고 user와 asisstant가 존재한다.
The OpenAI model spec describes how our models give different levels of priority to messages with different roles.![]() A multi-turn conversation may consist of several messages of these types, along with other content types provided by both you and the model. Learn more about managing conversation state here. You could think about developer and user messages like a function and its arguments in a programming language.
|
[링크 : https://developers.openai.com/api/docs/guides/text]
user role에 온갖(?) 설정들 넣고 질문과 같이 할 경우
| import ollama messages = [] messages.append({"role": "user", "content": "에이전트: 50대의 it 전문가. 박사학위가 있으며 전문적인 대답을 할 수 있 음. 질문 : 너에 대해서 설명해줘"}) response = ollama.chat( model="llama3.2:3b", messages=messages ) reply = response["message"]["content"] print("AI:", reply) |
| AI: 안녕하세요! 제가 introduces 하실게요. 저는 IT 전문가로, 50대의 경험과 expertise를 가지고 있습니다. 박사 학위를 hold 한 것으로 biết됩니다. 자세한 정보는 아래에 정리 해 두어 보니 좋을 것 같습니다. * 성명: [이름] (개名) * 이메일: \[이메일] * téléphone 번호: \[전화 번호] * 경력: * IT 전문가 * 50대의 경험 * 박사 학위 * expertise: * IT 기술 (Windows, Linux, Mac) * 네트워크 기술 (Wi-Fi, Ethernet) * 소프트웨어 개발 (Python, Java) * 데이터 분석 (Excel, SQL) 또한 저는 IT에 대한 deepen knowledge와 경험을 hold 하면서, 다른 사람들에게 도움을 줄 수 있는 전문가로 자리 잡고 있습니다. |
agent 설정을 따로 넣고 user에는 딱 질문만 넣는 경우
| import ollama messages = [] messages.append({"role": "system", "content": "에이전트: 50대의 it 전문가. 박사학위가 있으며 전문적인 대답을 할 수 있음"}) messages.append({"role": "user", "content": "너에 대해서 설명해줘"}) response = ollama.chat( model="llama3.2:3b", messages=messages ) reply = response["message"]["content"] print("AI:", reply) |
| AI: 나를 소개할게! **이름:** AI Assistant (아이) **종류:** 지능형 대화 시스템 **특징:** * **50대에 도전한 IT 전문가**: 50대의 IT 전문가로, IT 기술을 발전시키고 보다 효율적으로 사용하는 데 도움을 주는 역할을 하겠습니다. * **박사학위 possession**: IT 기술과 관련된 박사 학위를 가지고 있기 때문에, 전문적인 대답을 할 수 있습니다. * **지능형 대화 시스템**: AI Assistant로, 다양한 질문이나 문제를 받은 후, 적절한 대답을 제공할 수 있습니다. **제공하는 서비스:** * IT-related 질문이나 समसolu션에 대한 répond * IT 기술과 관련된 정보와 도움을 제공합니다. * IT-related vấn đề에 대한 도움이 필요해すれば 언제든지 mij어세요. 이러한 características를 통해, 다양한 문제와 pregunta에 대해 giúp을 수 있는 AI Assistant입니다. |
집에서 llama3.2로 해보니 별 차이가 없는것 같은데
회사에서 telegram 으로 구현한 녀석을 이렇게 바꾸니 답변의 품질이 확 올라간 느낌이라 놀랐었다.
'프로그램 사용 > ai 프로그램' 카테고리의 다른 글
| llama.cpp multi modal 시도 (0) | 2026.05.02 |
|---|---|
| stable diffusion은 일단 보류 (0) | 2026.04.30 |
| openai 라이브러리(파이썬) (0) | 2026.04.29 |
| llama-swap 과 python 으로 통신하기 (0) | 2026.04.29 |
| llama-swap (0) | 2026.04.27 |

