Club|Project514 🛡️ UCPC 7차 회의 보호되어 있는 글 입니다. 2025. 6. 16. 중간보고서 : 은하 병합 여부 및 단계를 분류하는 이미지-수치기반 멀티모달AI 모델 개발 히히 교수님이 극칭찬해주셨다! ㅎㅎ 쿠르크제작트 미안해요...>!링크만 공개로 했어요.>>,,,,!ㅠ딱 교수님만 보실 거예요너무 딱 맞는 영상이라서요...ㅠㅠㅠㅠㅠ 2025. 6. 14. 💥 SYNERGI - 대면 회의 1 TNG 시뮬레이션 기반 은하 병합 분류를 위한 멀티모달 AI 모델 구축예약한 강의실이.. 이런 모양일 줄은 몰랐지✅ 데이터셋 - 이미지이미지 해상도: 400×400으로 고정.이미지 생성 방법: TNG 시뮬레이션에서 뷰어 사용해 생성 (파이 XP GPO 기반).SDSS r밴드 기준으로 스텔라 파티클만 활용.배경 성분(별/가스 등)이 제외되기 때문에 실제 관측과 차이가 있음.중심을 stellar mass 중심으로 재정렬하여 균일한 crop 수행하기스냅샷 범위: 91~99 사용 (필요시 80까지 확장 가능)중복 사용: 동일 은하가 여러 스냅샷에 포함되어도 문제 없음 (물리량이 달라지므로 중복학습 위험 낮음)프리/포스트 머저 샘플 수: 총 약 500개 확보 예상생성 속도: 은하 1개당 1분 이내 생성 가능.관측.. 2025. 6. 7. ❇️ [DENOISING DIFFUSION IMPLICIT MODELS] 인트로 리뷰 ABSTRACT우리는 객체 탐지를 위한 새로운 접근 방식인 YOLO를 제안한다. 기존 객체 탐지 연구는 분류기를 재활용하여 탐지를 수행하지만, 우리는 객체 탐지를 공간적으로 분리된 바운딩 박스와 관련된 클래스 확률로의 회귀 문제로 정의한다. 하나의 신경망이 전체 이미지를 입력받아 바운딩 박스와 클래스 확률을 단 한 번의 평가로 직접 예측한다. 탐지 파이프라인 전체가 하나의 네트워크로 구성되어 있기 때문에, 탐지 성능을 기준으로 엔드 투 엔드 학습이 가능하다. 우리의 통합된 아키텍처는 매우 빠르다. 기본 YOLO 모델은 초당 45프레임으로 이미지를 실시간 처리할 수 있으며, 더 작은 버전인 Fast YOLO는 무려 초당 155프레임을 처리하면서도 다른 실시간 탐지기보다 두 배 이상의 mAP 성능을 보인다... 2025. 6. 3. ❇️ [YOLO: You Only Look Once: Unified, Real-Time Object Detection] 리뷰 므엥✳️ 논문 리뷰 1. 🧾 논문 개요이 논문은 객체 탐지를 위한 새로운 방식인 YOLO (You Only Look Once)를 제안한다. 기존의 R-CNN이나 DPM 방식과 달리 YOLO는 이미지를 한 번만 보고 동시에 여러 객체의 경계 상자와 클래스 확률을 예측한다. 이를 통해 객체 탐지 과정을 단일 신경망으로 통합하고, 학습 및 추론 속도를 대폭 향상시켰다. YOLO는 전체 이미지를 입력으로 받아 전역적인 문맥을 반영할 수 있으며, 실시간 처리 속도(45fps, Fast YOLO는 155fps)와 함께 경쟁력 있는 성능을 달성하였다.2. 🎯 주요 기여탐지 과정의 통합: 객체 탐지를 이미지 분류처럼 단일 회귀 문제로 간주하여 전체 탐지 파이프라인을 하나의 CNN으로 단순화함.실시간 성능: YOLO.. 2025. 6. 3. 🛡️ UCPC 6차 회의 보호되어 있는 글 입니다. 2025. 6. 2. 🤑 Colab pro+ 구독 / 은하 분류 멀티모달 데모 코드 🤑 Colab pro+ 구독연구비 있는 녀자댓츠 미 브로 거금 투자 Making the Most of your Colab SubscriptionRun, share, and edit Python notebookscolab.research.google.com✅ 1. 더 강력한 하드웨어 자원GPU 성능 향상: A100, V100, T4 같은 고성능 GPU 제공. 특히 A100은 딥러닝 학습 시 속도 차이가 매우 큼.TPU 제공: TPU도 사용 가능하며, TensorFlow 기반 모델에서 특히 유리함.RAM 용량 증가: 최대 52GB 이상의 고용량 RAM 환경 사용 가능 (Pro는 약 25GB, Free는 12GB).✅ 2. 더 긴 런타임 & 연결 유지세션 유지 시간 증가: Free는 수십 분에서 1시간 내.. 2025. 5. 31. 👻 선배의 수상한 다이어리: 중앙도서관 씬 제작 🧭 챕터 2-중앙도서관챕터 2중앙도서관도서관으로 이동, 배터리 부족 → 시청각실로 이동하여 00 인식 → 충전기 대여 후 다이어리 수집 (다이어리에 자정 이후 잠김 내용)시청각실 - 학생증 보여주면 핸드폰 충전기랑 헤드셋 대여 가능자정 이후 자동 잠김 → 24시 이전 퇴실 필요휴대폰을 충전, 어두워지는 연출 (Auditorium01 진행)- 도서관에서 집중하니까 시간 가는 줄 모르겠네..(휴대폰 드는 사진이 뜨며)- 앗..! 배터리가 없잖아?- 학교에서 충전기를 대여할 수 있다던데..(arScene 활성화)시청각실로 이동하여 00를 인식하시오 >(인식 후)🧩 꿀팁 정보 요약: 중앙도서관은 자정(24:00) 이후 출입 통제되며, 잔류 시 자동 잠김{ "PageID": 1, "Date": "4월 6일",.. 2025. 5. 30. ❇️ [GPT-3: Language Models are Few-Shot Learners] 인트로 리뷰 Abstract최근 연구들은 대규모 텍스트 코퍼스에 대한 사전 학습(pre-training) 후 특정 태스크에 대한 파인튜닝(fine-tuning)을 수행함으로써 다양한 자연어처리(NLP) 과제에서 큰 성능 향상을 이루었다. 이러한 방식은 보통 태스크에 독립적인 아키텍처를 사용하지만, 여전히 수천에서 수만 개의 예시가 포함된 태스크 전용 데이터셋이 필요하다는 한계가 있다. 반면, 인간은 보통 단 몇 개의 예시나 간단한 지시만으로도 새로운 언어 과제를 수행할 수 있다. 현재의 NLP 시스템은 이러한 능력을 대부분 갖추지 못하고 있다. 본 논문에서는 언어 모델의 규모를 확장하면 태스크에 특화되지 않은(few-shot) 상황에서도 성능이 크게 향상된다는 것을 보인다. 우리는 1,750억 개의 파라미터를 가진 .. 2025. 5. 26. ❇️ [BLIP: Bootstrapping Language-Image Pre-training forUnified Vision-Language Understanding and Generation] 논문 리뷰 므엥✳️ 논문 리뷰 1. 🧾 논문 개요이 논문은 다양한 비전-언어(Vision-Language) 태스크에 범용적으로 활용 가능한 통합 사전학습 프레임워크인 BLIP을 제안한다. 기존 VLP(Vision-Language Pretraining) 모델들은 주로 이해 기반 또는 생성 기반 태스크 중 하나에만 특화되어 있었던 반면, BLIP은 양쪽 모두를 효과적으로 처리할 수 있도록 설계되었다. BLIP은 두 가지 핵심 기여를 통해 이를 달성한다: 모델 측면: 새로운 아키텍처인 Multimodal Mixture of Encoder-Decoder (MED).데이터 측면: 웹 이미지-텍스트 쌍의 품질을 개선하는 CapFilt (Captioning + Filtering).2. 🎯 주요 기여다운스트림 태스크: COC.. 2025. 5. 26. 이전 1 2 3 4 ··· 52 다음