본문 바로가기

전체 글75

맥북에서 GPT-OSS 20B 모델 돌려보기 (Ollama 이용) MacBook에서도 비교적 간단한 설정만으로, 20B 규모의 언어 모델을 띄워 직접 활용할 수 있습니다.실험 환경저는 23년형 Macbook pro (CPU는 M3 pro, 메모리는 36기가) 에서 실험했습니다.GUI로 실행하는 방법가장 쉬운 방법은 Ollama를 이용하는 방법입니다. 다운로드 페이지에서 다운받아 실행하면, 다양한 모델들을 실험해볼 수 있는 ChatGPT와 유사한 챗 인터페이스를 보실 수 있습니다.챗 화면의 오른쪽 아래에 모델을 드롭다운 메뉴로 선택할 수 있고, 처음 시작시에 모델 바이너리 다운받는 시간이 걸립니다. 다른 모델은 로컬에서 돌릴 생각을 못해봤고, gpt-oss:20b 모델만 테스트 해봤습니다. 유료 섭스크립션 플랜인 turbo를 활용하면 Ollama가 클라우드에서 서비스하는.. 2025. 8. 9.
[ML/LLM] Small Language Models are the Future of Agentic AI TitleSmall Language Models are the Future of Agentic AILinkshttps://arxiv.org/pdf/2506.02153Summary최근에 공개된 이 논문은, 대규모 언어 모델(LLM)이 전성기를 누리는 지금, 오히려 작지만 날카로운 모델(Small Language Models, SLM)이 더 적합한 대안이 될 수 있다는 중요한 관점을 제시합니다. 이 글에서는 SLM이 왜 에이전트 중심 AI 시스템에서 빛날 수밖에 없는지, 논문의 핵심을 차분히 짚어보려 합니다.SLMs are: V1 principally sufficiently powerful to handle language modeling errands of agentic applications .. 2025. 8. 8.
OpenAI 오픈 웨이트 모델 공개 gpt-oss-120b, gpt-oss-20b 지난 몇 년간 OpenAI는 뛰어난 성능의 GPT 모델들을 내놓았지만, 연구자와 개발자 입장에서 가장 아쉬웠던 부분은 폐쇄적인 정책이었습니다. GPT‑4 계열 모델의 정확도와 정렬 능력은 놀라웠지만, 우리는 그것이 어떻게 동작하는지, 어떤 아키텍처 설계를 택했는지, 그리고 파인튜닝이 가능한지 알 방법이 없었습니다.그러나 2025년 8월, 그 흐름이 바뀌기 시작했습니다. OpenAI는 gpt-oss-120b와 gpt-oss-20b 두 개의 모델을 Apache 2.0 라이선스로 공개했습니다. 이는 단순한 오픈 모델 그 이상이며, 실질적인 LLM 생태계 전환점이라고 판단합니다.1. 모델 구조와 학습 전략: Mixture-of-Experts의 실전 적용아키텍처 요약모델 이름총 파라미터활성 파라미터Expert 수.. 2025. 8. 8.
[PDF] 머신러닝 인터뷰 정리 노트 (ML technical interview prep. note) 인공지능, 머신러닝 관련 기술 포지션의 면접을 위해 정리한 ML technical interview prep. note를 공유합니다.기본적인 ML concepts들을 리마인드하기 위해 컨셉들을 정리한 문서입니다. Source: https://github.com/dongchankim-io/MLInterviewNotes/releases/ 2025. 7. 28.
[ML/Data] Data Recipes for Reasoning Models TitleData Recipes for Reasoning ModelsLinkshttps://arxiv.org/abs/2506.04178Summary이 논문은 추론 능력을 갖춘 모델을 위한 SFT(Supervised Fine-Tuning) 데이터셋 구성 과정을 체계적으로 분석하고, 데이터 품질에 대한 기존의 통념을 재검토하고자 한다. 최근 수학, 코딩, 과학 등 고차원 추론을 요하는 분야에서 강력한 성능을 보이는 모델들은 보통 강력한 베이스 모델 위에, SFT나 RL(Reinforcement Learning) 등 후처리 학습(post-training) 단계를 거쳐 추론 능력을 부여받는다. 이 과정을 통해 모델은 “생각의 흐름(thinking tokens)“을 생성하며 답을 유도할 수 있게 된다.논문은 특히.. 2025. 6. 25.
[ML/LLM] Gemini Embedding: Generalizable Embeddings from Gemini TitleGemini Embedding: Generalizeable Embeddings from GeminiLinkshttps://arxiv.org/abs/2503.07891SummaryLLM을 활용한 임베딩 생성 방법론을 다룸 (representation learning)작은 encoder 모델을 Gemini의 transformer layer로 초기화하여 추가 학습을 진행.추가 학습은 pre-finetuning과 finetuning 의 두 단계로 진행.최종 모델은 generalizeability를 위해 여러 checkpoint를 합쳐서 (e.g., mean pooling) 생성 (a.k.a., model soup) 2025. 6. 25.
[ML/LLM] Learning Dynamics of LLM Finetuning TitleLearning Dynamics of LLM Finetuning (ICLR 2025 outstanding paper)Linkshttps://arxiv.org/abs/2407.10490https://www.youtube.com/watch?v=OMTGbPPCaQgSummary이 페이퍼는 LLM (Large Language Model) 파인튜닝의 동작 메커니즘을 모델의 예측 변화 (decomposition) 을 통해 분석하려는 시도를 다룹니다."After an GD update on x_i, how does the model's prediction on x_i change?"LLM 파인튜닝의 이해를 위한 접근문제 제기특정 샘플 x_i에 대해 GD(Gradient Descent) 업데이트를 수행한 후,.. 2025. 6. 25.
[ML] Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts (MMoE) TitleModeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-ExpertsLinkshttps://dl.acm.org/doi/10.1145/3219819.3220007Summary한눈에 보는 멀티태스크 학습과 MMoE (Multi-gate Mixture-of-Experts)최근 인공지능 시스템은 하나의 모델로 여러 작업(태스크)을 동시에 처리하는 멀티태스크 학습 방법에 많은 관심이 쏠리고 있습니다. 예를 들어, 영화 추천 시스템에서는 사용자가 영화를 구매할지, 시청할지, 또는 좋아요를 누를지 같은 여러 목표를 한 모델로 예측할 수 있습니다. 그런데 이렇게 여러 작업을 함께 학습할 때 서로 다른 작업 간에 충돌이 일어나거.. 2025. 2. 22.
[LLM/NLP] DeepSeek-R1: Incentivizing Reasoning Capability in LLMs viaReinforcement Learning TitleDeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement LearningLinkshttps://arxiv.org/abs/2501.12948https://huggingface.co/deepseek-ai/DeepSeek-R1https://github.com/deepseek-ai/DeepSeek-R1Summary1. DeepSeek-R1 개요DeepSeek-R1은 범용 대규모 언어 모델을 오픈소스로 구현하고, 이를 효과적으로 학습·배포할 수 있는 새로운 접근 방식을 제안하는 연구입니다. 전 세계 다양한 데이터셋을 ‘글로벌 디스패칭(Global Dispatching)’이라는 독특한 전략으로 수집·전처리하여, 고품질 언어 표현 능.. 2025. 2. 9.