본문 바로가기
  • 컴공생의 공부 일기
  • 공부보단 일기에 가까운 것 같은
  • 블로그

전체 글1150

📬️ OpenAI Capabilities : Function calling https://platform.openai.com/docs/guides/function-calling Function callingConnect models to external data and systems. connect language models to external data and systemsdefine a set of functions as tools that the model has access to,execute those functions on the application side, and provide results back to the model from openai import OpenAIclient = OpenAI()tools = [ { "type": "function.. 2025. 1. 13.
maoom "다국어 매뉴얼 영문 치환" 용어 추가시 기호 삽입 문제 개선하기 2 보호되어 있는 글 입니다. 2025. 1. 13.
📊 뀨업 : 2차 릴리즈 준비 - 회의 2 : 학생 순위 기여 랭크용 수식 설계, DNS 고치기 📊 TODO📍3월 1일 : 2차 릴리즈 예정 (+재홍보 - 릴리즈 날짜( 막회의 날짜 ) 바꾸기 가능한가요..? 4일으루 ㅎㅎ✅ - 수식 설계 / 피드백✅- 후원요청 메일 난사하기- 리프레시 기능 📝- 도메인 리디렉션 고치기✅ - 미리 매일 순위 데이터 모집 가능?✅📊 주간 회의- 이화여대의 전체 풀린 문제 | 오늘 풀린 문제 개수 기능 추가하기- 오늘의 문제 => 추천 문제 ( 풀면 사라지게 )- 이화여대 백준 순위 그래프 만들기  DB 변경 사항- 이화여대 날짜별 풀린 문제 개수 / 등수- 학생별 푼 문제 번호 리스트 - erdcloud에 erd 그리기 이번주 TODO✅정은체 소은이 api 리프레시 기능 연결실제 데이터로 수식 테스트해보고 미세 조정 히언일별 이화여대 푼 문제 개수/순위 저장 .. 2025. 1. 11.
🔬말 잘 듣는 모델 만들기 2 : 강화 학습(PPO/RLHF), 기각 샘플링/DPO LLM을 활용한 실전 AI 애플리케이션 개발- 허정준🍄 채점 모델로 코드 가독성 높이기🍯 선호 데이터셋을 사용한 채점 모델 만들기선호 데이터셋 Reference dataset데이터 두 개를 선호 데이터(chosen data) / 비선호 데이터(rejected data) 로 분류 + 왜 데이터마다 점수를 매기지 않고? => 정확한 정량적 수치를 매기기 어려운 경우 많음- Openai도 학습에 사용 => 생성된 답변의 점수를 평가하는 리워드 모델 (reward model)🍯 강화 학습 : 더 높은 코드 가독성 점수를 향해에피소드 : 에이전트가 연속적으로 수행하는 행동의 모음 보상 해킹 ( reward hacking) : 보상을 높게 받는 데에만 집중 (다른 능력이 감소 / 평가 점수만 높게 나오는 우회.. 2025. 1. 10.
🔬말 잘 듣는 모델 만들기 1 : 미세 조정 LLM을 활용한 실전 AI 애플리케이션 개발- 허정준 다시 정리여 사전 학습 (Pre-training)모델이 대규모 데이터셋을 기반으로 일반적인 패턴, 언어 구조 및 지식을 학습하는 초기 단계 파운데이션 모델(Foundation Model)을 만드는 과정!바디 + 헤드 중에 바디 부분 모델!  미세 조정 (Fine-tuning)사전 학습된 모델을 특정 작업이나 도메인에 맞게 최적화하는 과정 바디 + 헤드 중에 헤드 부분 레이어 생성!  강화 학습 (Reinforcement Learning)모델이 보상을 통해 올바른 행동을 배우도록 학습시키는 방법 예시 ) 강화 학습 알고리즘 (예: Proximal Policy Optimization, PPO), RLHF, Reinforcement Learning with.. 2025. 1. 10.
끄적 2025 ucpc 부회장을 하게 됐다.디자인팀을 함으로서 쏠쏠한 용돈벌이를 낚아챌 예정이었는데키파언니가 모쪼록 약속해준 대로 내가 다른 일을 안 할 수 있도록 잘 인수인계해주길 바랄 뿐이다.. 애초에 루비들 사이에서 물플래 쪼렙이 무슨 일을 할 수 있겠는가\? (코포는애초에계정도아직..물론 홍보 및 후원 등 기타 작업도 더 이상 사양이다... 신촌에서 크게 즐겼다 좋은 기회 준 언니에게 감사를..TODO- logprobs 사용/ 실습✅+ 구글 독스 / advanced 푸시 PR✅ - 프롬프트 엔지니어링 사용 실습 ✅/ openai 공식 문서✅/ openai cookbook✅/ leaked_GPTS+ 구글 독스✅ - 마움 개선✍️ing+ 프롬프트 엔지니어링✍️ing+ 인자 조절✍️ing+ 엑셀 시트 입력+.. 2025. 1. 9.
✍️ OpenAI Cookbook : Prompting libraries & tools & guides 구경 Related resources from around the web | OpenAI CookbookOpen-source examples and guides for building with the OpenAI API. Browse a collection of snippets, advanced techniques and walkthroughs. Share your own examples and guides.cookbook.openai.comOpenAI Cookbook : Related resources from around the webPrompting libraries & toolsPrompting guidesVideo coursesPapers on advanced prompting to improve r.. 2025. 1. 9.
✍️ OpenAI 공식 프롬프트 엔지니어링 가이드 openAI 공식 프롬프트 엔지니어링 가이드 Six strategies for getting better results1. Write clear instructions- Tactic: Include details in your query to get more relevant answers - Tactic: Ask the model to adopt a persona role 기능 쓰면 되는 ㄷㅡㅅ - Tactic: Use delimiters to clearly indicate distinct parts of the inputtriple quotation marks, XML tags, section titles, etc. - Tactic: Specify the steps required to complete.. 2025. 1. 9.
🔣 openai api 인자 : logprobs 룰랄룰루랄🔣  logprobsinteger or nullOptionalDefaults to nullInclude the log probabilities on the logprobs most likely output tokens, as well the chosen tokens. For example, if logprobs is 5, the API will return a list of the 5 most likely tokens. The API will always return the logprob of the sampled token, so there may be up to logprobs+1 elements in the response.The maximum value for logprobs is 5... 2025. 1. 9.
maoom "다국어 매뉴얼 영문 치환" 용어 추가시 기호 삽입 문제 개선하기 보호되어 있는 글 입니다. 2025. 1. 8.