분류 전체보기451 [영화 발표] 그룹 발표 [슬라이드 1: 개념 관계도]안녕하세요. 다음으로 ‘Information Poverty’, 즉 정보 빈곤 이론의 핵심 개념 간의 관계를 중심으로 발표를 준비했습니다.정보 빈곤은 단순히 정보가 없는 상태가 아니라, 특정 정보에 접근하거나 공유하지 않으려는 전략적 행위와 연결되어 있습니다.이러한 정보 빈곤 현상은 ‘비밀 유지’, ‘기만’, ‘상황적 정합성’이라는 세 가지 핵심 전략을 통해 나타나며, 결국 ‘위험 감수’라는 선택으로 이어지게 됩니다.지금부터 각각의 개념을 하나씩 설명드리겠습니다.⸻[슬라이드 2: Secrecy]첫 번째 개념은 ‘Secrecy’, 즉 비밀 유지입니다.이 개념은 자신이 가진 정보나 정체성을 숨기기 위한 전략을 의미합니다.왼쪽 사례는 복수를 준비하며 신앙 간증을 연기하는 장면인데요,.. 2025. 4. 16. [논문리뷰] GPT-1 unlabel 된 데이터로는 단어 수준의 정보밖에 얻지 못하고, 2가지의 문제점이 항상 존재함. 1. pretrained model을 학습하는데 무엇이 optimization 최적화이고 효과적인지가 불분명함.2. pretrained model을 fine-tuning 하는데 무엇이 가장 효과적인지 알 수 없음. 조금의 변경으로 fine-tuning이 가능하게 만들었다는 점. Attention, Bert 신경망 구조 사진그 중간 구조를 뺴서, GPT-1을 구성 (Decoder 부분) 비유와 실제 예제를 통해 설명하기. Fine-Tuning에서 가중치를 바꾸는게 주력인데, 아키텍처를 바꾼다는 것이 무엇인지. Q[유사도] 인풋이 바뀌는 것인가?문장 자체가 인풋으로 들어감.인풋이 좀 나눠져 있나 하는 궁금증.GP.. 2025. 4. 7. [논문리뷰] RoBERT 언어모델 발표자료 기존까지 핵심을 잘 설명해준 영상 -> 이 영상에서 개념을 한번 잡아볼게요.인코딩 -> '이해'를 목적으로 언어가 서로를 바라보는 언어들. -> 0000, 4글자. Bert디코딩 -> 새로운 개념이 '생성' -> 000 000, 6글자. Chat gpt1. 전체 개념들의 연결성과 흐름 2. 각 개념을 시각적으로 전달. 3. Bert vs RoBert 슬라이드 7: 전체 개념 정리“지금까지 언어 모델의 발전부터 BERT와 RoBERTa까지 핵심 개념을 정리해봤습니다.BERT는 이해 중심, 양방향, Encoder 기반입니다.GPT는 생성 중심, 단방향, Decoder 기반입니다.Self-Attention은 문맥을 반영해 중요한 정보를 뽑아냅니다.RoBERTa는 BERT를 개선한 모델로, NSP 제거와 동적 .. 2025. 4. 6. [논문리뷰] 기계 번역 모델의 발전방향 및 비교 Transformer는 GPT나 BERT보다도 더 먼저 등장했고, 사실 이 두 모델의 출발점이자 핵심 구조야.GPT와 BERT는 Transformer를 기반으로 각각 다른 목적에 맞게 커스터마이징된 후속 모델 Transformer의 탄생과 핵심발표 시기2017년, Google의 논문→ "Attention Is All You Need" (Vaswani et al.)목표기존의 RNN, LSTM 기반 번역 모델보다 빠르고 더 정확한 기계 번역 모델을 만들기 위해 Transformer의 핵심 아이디어핵심 요소설명Self-Attention문장 내 단어들이 서로 어떤 관계를 맺고 있는지를 학습하여 문맥을 반영병렬 처리RNN은 순차적으로 학습해야 하지만, Transformer는 동시에 학습 가능Position Enc.. 2025. 4. 6. 이전 1 2 3 4 ··· 113 다음