AI6 [ML] Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts (MMoE) TitleModeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-ExpertsLinkshttps://dl.acm.org/doi/10.1145/3219819.3220007Summary한눈에 보는 멀티태스크 학습과 MMoE (Multi-gate Mixture-of-Experts)최근 인공지능 시스템은 하나의 모델로 여러 작업(태스크)을 동시에 처리하는 멀티태스크 학습 방법에 많은 관심이 쏠리고 있습니다. 예를 들어, 영화 추천 시스템에서는 사용자가 영화를 구매할지, 시청할지, 또는 좋아요를 누를지 같은 여러 목표를 한 모델로 예측할 수 있습니다. 그런데 이렇게 여러 작업을 함께 학습할 때 서로 다른 작업 간에 충돌이 일어나거.. 2025. 2. 22. [AD] Deep Learning Recommendation Model for Personalization and Recommendation Systems TitleDeep Learning Recommendation Model for Personalization and Recommendation SystemsLinkshttps://arxiv.org/abs/1906.00091Summary1. 왜 딥러닝 추천 모델(DLRM)이 중요한가?개인화된 광고의 성장과 대규모 데이터인터넷 사용 시간이 증가함에 따라, 대규모 유저 데이터를 바탕으로 한 개인화 광고의 가치가 커지고 있습니다.유저가 남긴 수많은 클릭 로그, 관심사 태그, 시간대, 디바이스 정보 등은 방대한 피처(Feature) 공간을 형성하게 됩니다.추천 시스템은 이러한 이질적인 피처들을 동시에 학습하여, 정확도 높은 광고 추천을 실현해야 합니다.기존 추천 모델의 한계전통적인 콜라보레이티브 필터링(Collab.. 2025. 2. 9. [LLM/NLP] Banishing LLM Hallucinations Requires RethinkingGeneralization TitleBanishing LLM Hallucinations Requires Rethinking GeneralizationLinksarxivhttps://www.lamini.ai/Summary이 연구는 LLM의 일반적인 hallucination problem (사실과 다른 내용을 그럴듯해 보이게 생성해내는 문제) 에 관하여 어떻게 해결할 수 있을지에 대한 방법 및 새로운 모델 구조를 제안한다. 좀 더 구체적으로 답을 구하는 문제들은,What causes hallucinations?Are there other architectures with low generalization error and low hallucinations?Are they computationally feasible?일반적으로 LLM은.. 2024. 7. 8. [LLM/NLP] A Thorough Examination of Decoding Methods in the Era of LLMs TitleA Thorough Examination of Decoding Methods in the Era of LLMsLinksarxiv A Thorough Examination of Decoding Methods in the Era of LLMsDecoding methods play an indispensable role in converting language models from next-token predictors into practical task solvers. Prior research on decoding methods, primarily focusing on task-specific models, may not extend to the current era of general-parxi.. 2024. 7. 7. 이전 1 2 다음