본문 바로가기
  • 컴공생의 공부 일기
  • 공부보단 일기에 가까운 것 같은
  • 블로그

전체 글1221

maoom "다국어 매뉴얼 영문 치환" 용어 추가시 기호 삽입 문제 개선하기 보호되어 있는 글 입니다. 2025. 1. 8.
보호되어 있는 글 입니다. 2025. 1. 7.
🎮 계산기사 게임 앱 찐출시 - 5 : PlayerPrefs 정보 로컬 저장 개미 뚠뚠ㅎㅎ! 화이팅해보자고1월 출시 못하고 죽기 아니면 까무러치기TODO- 여러 기기 화면 호환 기능 되는지 보기- 갤럭시 개발 계정 파기 ($25) ✅- 애플 개발 계정 파기 ($99)- 파이어베이스 리얼타임db 세팅 - 사용자 닉네임 사용자 기기 저장✅- 초기 정보 서버 전송- 메인룸 세게회복도/코인/닉네임/직위 서버 연동- 랭킹홈 닉네임/직위/계산검술숙련도 서버 연동- 랭킹전 점수 연동- 랭킹 보여주는 표 서버 연동- 소리 떨어진 거 다시 붙이기 (스테이지홈배경음끼룩사운드 ✅- 이미지 떨어진 거 다시 붙이기 ✅- 스테이지 홈 복원 ✅- 스테이지 1 복원 ✅- 스테이지 2 복원 ✅- 스테이지 3 복원 ✅- 안 쓰이는 것들 제거  ✅- 랭킹 홈 복원 및 수정- 찐랭킹사이트 복원 및 수정- 랭킹 부분.. 2025. 1. 7.
🔬트랜스포머 모델을 다루기 위한 허깅페이스 트랜스포머 라이브러리 3 LLM을 활용한 실전 AI 애플리케이션 개발- 허정준🔬모델 추론하기학습 시 제공하는 trainer api 처럼모델 활용을 쉽게 제공하는 파이프라인이 있다.  💧파이프라인을 활용한 추론# 예제 3.30. 학습한 모델을 불러와 pipeline을 활용해 추론하기# 실습을 새롭게 시작하는 경우 데이터셋 다시 불러오기 실행# import torch# import torch.nn.functional as F# from datasets import load_dataset# dataset = load_dataset("klue", "ynat", split="validation")from transformers import pipelinemodel_id = "본인의 아이디 입력/roberta-base-klue-ynat.. 2025. 1. 7.
🔬트랜스포머 모델을 다루기 위한 허깅페이스 트랜스포머 라이브러리 2 LLM을 활용한 실전 AI 애플리케이션 개발- 허정준🔬허깅페이스 라이브러리 사용법 익히기모델 / 토크나이저 / 데이터셋🎀 모델 활용하기모델 = 바디 + 헤드 1) 바디 불러오기from transformers import AutoModelmodel_id = 'klue/roberta-base'model = AutoModel.from_pretrained(model_id)Automodel 클래스- 모델의 바디를 불러오는 클래스Automodel.from_pretrained(모델 경로)- 모델 경로 (웹 허브/ 로컬)에서 모델 불러옴 허깅페이스 모델의 config.json- 모델의 종류, 설정 파라미터, 어휘 사전 크기, 사용하는 토크나이저 클래스 등의 정보가 저장됨- Automodel 클래스가 참고하여 모델 .. 2025. 1. 7.
끄적.. TODO- LLM ADVANCED pr날리기✅- 실전 llm 책 : 2당ㄴ원✅- cache 탐구 끝내기✅- xml- top_k ✅- 터꾸- 한영키 맥화✅top_k엇..업슴... 미스터비스트 피스터블 피넛버터책갈피항공편  만화 생성 ai~~ AI Comic Factory - a Hugging Face Space by jbilcke-hf huggingface.co    내 얼굴 온라인 Search Your Face Online - a Hugging Face Space by FaceOnLive huggingface.co오 유튜브에서 많이 보이는 거  Image Time-machine - a Hugging Face Space by ginipickRunning on Zerohuggingface.co    Kolo.. 2025. 1. 6.
🔬트랜스포머 모델을 다루기 위한 허깅페이스 트랜스포머 라이브러리 1 LLM을 활용한 실전 AI 애플리케이션 개발- 허정준 트랜스포머 아키텍처를 사용하는 여러 모델들의 구현 방식에 차이가 있어 어려움 발생=>허깅페이스가 일관된 트랜스포머 라이브러리 제공 pip install transformers==4.40.1 datasets==2.19.0 huggingface_hub==0.23.0 -qqq-qqq 없는 게 난 더 좋은 듯🔬허깅페이스 트랜스포머란 허깅페이스 기능transformers 라이브러리 - 트랜스포머 모델- 토크나이저datasets 라이브러리- 데이터셋 다양한 모델을 거의 동일한 인터페이스로 사용 가능하게 함!BERT/GPT-2 예시rom transformers import AutoTokenizer, AutoModeltext = "What is Huggingfac.. 2025. 1. 6.
🔬LLM의 중추, 트랜스포머 아키텍처 살펴보기 1 LLM을 활용한 실전 AI 애플리케이션 개발- 허정준🔬트랜스포머 아키텍처란 attention is all you need 논문에서 처음 등장RNN 모델 아키텍처보다- 성능이 우수하고 (기울기 사라짐 문제 해결)- 학습 속도도 빠른"트랜스포머" 아키텍처 RNN 모델 아키텍처- 이전 토큰의 출력을 다음 입력에 사용하기 때문에 병렬 처리 불가- 입력이 길어지면 초기 입력 토큰의 의미가 점차 희석되는 기울기 사라짐(그레디언트 소실) 문제 발생 (+그래디언트 증폭) 트랜스포머 아키텍처- "셀프 어텐션" 연산 도입- 병렬 연산 가능- 입력이 길어져도 성능이 떨어지지 않음.언어를 이해하는 인코더 + 언어를 생성하는 디코더인코더와 디코더의 초기 부분 : 임베딩을 통한 입력의 숫자 변환다음으로 위치 인코딩 층에서 문장.. 2025. 1. 6.
🪐🪐🪐 백준 - 2830 행성 X3 리프레시 버튼을 도입해서 백엔드 api 나오기 전 한번 테스트용으로 배포ㅋㅋ그냥 무조건 내 핸들 하드코딩으로 넣어서 되는지 보기테스트 서버 따윈 없어. 돈없어리프레시 버튼(티어별 페이지 버튼) 누르면 사용자 핸들(celina324) 내용 갱신 및 반영 확인하기# 2830행성 X3🥇3  비트마스킹~! 두 자리가 같으면 0을, 다르면 1XOR 연산 (^) 이진수 변환 : bin(10진수) 십진수 변환 : int(2진수, 2)   음..브루트포스 갈겨버린다면.... N*N*숫자길이1,000,000* 1,000,000 * 20 2만 초 필요..... 2만 배 줄여보자...  음.....음..난 멍청이야..흠..아이패드가져올걸끄적의 욕망 음..보니까 N에 처리해야 하는데 그럼 뭔가 한번에 처리해야 할 듯숫자 모.. 2025. 1. 4.
📊 뀨업 : 2차 릴리즈 준비 - 모각코회의 1 : 인스타, 후원요청, 리프레시 기능 프론트 📊 TODO📍3월 1일 : 2차 릴리즈 예정 (+재홍보 - 리드미 노트 채워주세요!/ 통일 업로드하기 ✅(https://github.com/Goldchae/Qup-Frontend)- 릴리즈 노트 올리기 (팀레포에 ✅(https://github.com/Database-QL-team/Qup-Frontend/releases/tag/v1.0.0) - 후원요청 메일 보내기 ✅논의솔브닥 api 사용 솔브닥 api 사용백준 크롤링 유지하기장점1명당 1초 이하컴퓨터 자원 덜 소모?이대 유저 700명 등록언젠간 크롤링 막힐 수도단점이대 유저 400명 등록1명당 1초 가량+feature : 리프레시 버튼 개발로직리프레시 버튼 누르기쿠키 확인- 쿠키 없음 : 모달창 띄워서 핸들 받고 api 날리고 토큰 박기- 쿠키 있음.. 2025. 1. 4.