본문 바로가기
  • 컴공생의 공부 일기
  • 공부보단 일기에 가까운 것 같은
  • 블로그

hamstersAreCute1261

💥 Zoobot 모델 - 은하 병합 파인튜닝 테스트 ing 므아앙드디어..!ㅠ merger 나왔다50기가만에...   아니이거 왜 은하 iD가 없지]  snapshot-91.0.hdf5로부터는 은하의 현재 물리적 특성(예: 항성질량)이나 은하 ID 등을 알 수 있고, \merger_history.hdf5로부터는 그 은하의 마지막 병합 시점이나 다음 병합 예정 시점 같은 동적 이력 정보를 얻을 수 있습니다  스냅숏 번호 + Subhalo ID + 병합 여부 라벨 + gri 이미지로 구성된 데이터셋을 구해야 하는 거잖아그러면 논문 다시 보면병합 비병합 은하 merger histtoue보고250개 정한 다음에다른 각도에서 4개씩 보고 스냅샷 설정해서 gri 이미지 다운받고 skirt로 먼지실제느낌 보정하고뭐 snapshot 데이터로 은하 id랑 이런 것도 통합해야 하.. 2025. 4. 8.
✳️ Denoising Diffusion Probabilistic Models 인트로 리뷰 Denoising Diffusion Probabilistic ModelsWe present high quality image synthesis results using diffusion probabilistic models, a class of latent variable models inspired by considerations from nonequilibrium thermodynamics. Our best results are obtained by training on a weighted variational boundarxiv.org초록 (Abstract) 우리는 비평형 열역학(non-equilibrium thermodynamics)에서 영감을 받은 잠재 변수 모델(latent variable m.. 2025. 4. 7.
졸프 끄적 해오기로 한 TODO  👽 졸업 논문 ( 9 ) - 멀티모달 딥러닝 아키텍처 개요연구 주제가 어느정도 정해지고 있다...!요놈이 제일 가능성 높은 주제일 듯하다실제 관측 데이터(측광 데이터+분광 데이터)와, 3D 시뮬레이션 데이터(시뮬 이미지 데이터+입력 데이터..?)를 사용sosoeunii.tistory.com  👽 졸업 논문 ( 10 ) - 멀티 모달 논문 분석 : Multimodal Machine Learning:A Survey and TaxonomyAbstract & Introduction 우리의 세계 경험은 시각, 청각, 촉각, 후각, 미각과 같이 여러 감각(modality)을 통해 이루어진다.인공지능(AI)이 주변 세계를 더 잘 이해하려면 이러한 다중 모달 신호를 함께 해sosoeunii... 2025. 4. 7.
🛡️ UCPC 3차 회의 보호되어 있는 글 입니다. 2025. 4. 7.
🌌 은하 합병 여부 분류를 위한 멀티모달 학습 전략 수립 보호되어 있는 글 입니다. 2025. 4. 7.
😛 Clip : Learning Transferable Visual Models From Natural Language Supervision : 4. Comparison to Human Performance - 9. Conclusion 😛 4. 인간 성능과의 비교 (Comparison to Human Performance) 🎯 실험 목적• CLIP과 인간이 비슷한 상황에서 제로샷/퓨샷 학습 성능을 어떻게 보이는지 비교• 모델과 인간의 표본 효율(sample efficiency) 및 학습 방식의 차이를 분석 🧪 실험 설계• 실험 데이터셋: Oxford IIT Pets (총 3669장, 37개의 고양이/강아지 품종)• 5명의 인간 평가자에게 3가지 조건에서 분류 실험 수행:• Zero-shot: 아무 예시도 없이 품종 분류• 1-shot: 품종별 예시 이미지 1장 제공• 2-shot: 품종별 예시 이미지 2장 제공• CLIP은 동일한 조건에서 제로샷 분류기로 평가 📊 결과 요약 (정량)조건전체 정확도“모름 제외” 정확도다수결 정.. 2025. 4. 4.
🛡️LG 전자 후원사 미팅 보호되어 있는 글 입니다. 2025. 4. 4.
25 생일 아카이브🎂 보호되어 있는 글 입니다. 2025. 4. 3.
😛 Clip : Learning Transferable Visual Models From Natural Language Supervision : 1. Introduction - 3. Experiments 😛 1. Introduction and Motivating Work 🧩 핵심 문제• 기존 컴퓨터 비전 모델은 고정된 라벨(예: ImageNet의 1000개 클래스)에 대해 훈련됨→ 새로운 시각 개념을 처리하려면 추가 라벨 데이터가 필요함 💡 새로운 대안: 자연어 기반 감독• 텍스트로부터 이미지 표현을 학습하면 훨씬 더 일반적이고 유연한 모델을 만들 수 있음• 자연어는 훨씬 넓은 시각 개념 공간을 표현할 수 있음 (예: “해변에 있는 노란 우산” 등) 📚 이전 연구 흐름• 과거 연구들도 텍스트-이미지 간의 연결을 활용하여 표현 학습을 시도• 예: 캡션 기반 단어 예측, 해시태그 기반 학습, 이미지-문서 동시 학습 등하지만:• 기존 연구들은 주로 소규모 데이터셋 또는 낮은 정확도 (예: 11.5% .. 2025. 4. 3.
🌰 컴퓨터공학과 이형준 담당교수님 면담 🌰 준비🌰 면담🌰 포인트 정리 멀티모달 모델링 방향기존 이미지 기반 모델에 물리량 또는 스펙트럼 등 다른 모달리티를 추가하는 방향은 타당함.텍스트 대신, 요약된 정보나 물리량 벡터를 프롬프트 형태로 활용하는 것도 좋은 접근.프롬프트 러닝(Prompt Tuning)은 생성형 AI와 접목해볼 수 있음. 페더레이티드 러닝에 대한 조언현재 프로젝트에서는 데이터가 공개되어 있고 분산 저장의 필요성이 크지 않기 때문에 굳이 연합학습을 적용할 필요는 없음.민감정보 보호 목적이 아닌 경우, 전통적인 중앙집중식 학습으로 충분. 협업 시 주의할 점천문학 전문가들과 협업 시, 컴퓨터공학 팀이 기술적 주도권을 유지하는 것이 중요함.도메인 요구사항과 컴퓨터공학적 타당성 사이에서 균형감각을 갖고 프로젝트를 이끌어야 함.연구.. 2025. 4. 3.