CS 330 - Deep Multi-Task and Meta Learning, Fall 2023 - Intro
Introduction
딥러닝은 Image classification, Natural Language Processing, Voice Recognition과 같은 많은 문제에서 엄청난 발전을 이루어왔지만 이러한 모델은 대부분 훈련받은 단일 작업에 특화되어 있다. 이번 CS330에서는 해결해야 할 여러 작업이 있는 환경을 다루고, 여러 작업으로 인해 발생하는 구조를 활용하여 보다 효율적이고 효과적으로 학습할 수 있는 방법을 연구한다고 한다. 해당 연구에는 아래와 같은 연구들이 포함되어 있다고 한다.
- Downstream 소수 학습 전이 학습을 위한 자기 지도 사전 학습.
- 새로운 작업을 빠르게 학습할 수 있는 효율적인 학습 알고리즘을 학습하는 것을 목표로 하는 메타 러닝 방법.
- 문제가 일련의 과제를 학습하고 지식 전달을 가능하게 하기 위해 공유 구조를 활용해야하는 커리큘럼 및 lifelong learning.
CS330 강의는 대학원 수준의 강좌라고 한다. 이 과정을 리뷰하는 사람들은 기대하고 들어가도 좋다.
이 CS330은 Meta-Learning이라는 초석을 다진 Chelsea Finn 교수님의 강좌이다.
Topic
- Multi-task learning, transfer learning basics
- Meta-learning algorithms (black-box approaches, optimization-based meta-learning, metric learning)
- Advanced meta-learning topics (meta-overfittng, unsupervised meta-learning, Bayesian models)
- Unsupervised pre-training for few-shot learning
- Relation to foundation models & in-context learning
- Domain adaptation & generalization
- Lifelong learning
- Open problems
Pre-Requisites
CS330에서는 아래와 같이 선수지식을 요구하고 있다.
- Machine Learning: CS229 또는 그에 맞는 지식 (SGD, cross-val, calculus, probability theory, linear algebra에 대한 선수지식이 있는 사람)
- Deep Learning에 친숙한사람 (backpropagation, recurrent network와 같은 개념을 기반으로 구축할 것이고, 과제가 나오는데 PyTorch를 이용해서 해야한다고 한다.)
Assignments
CS330에서는 아래와 같이 총 5개의 과제가 있는 것 같다.
- Homework 0: Multi-task learning basics
- Homework 1: Multi-task data processing, black-box meta-learning
- Homework 2: Gradient-based meta-learning & metric learning
- Homework 3: Fine-tuning pre-trained models
- Homework 4 (optional): Bayesian meta-learning & meta-overfitting
Conclsion
CS330의 첫번째 개요에 대해서 포스팅하다보니 아 많을 것들을 잘 따라갈 수 있을지가 의문이다. 그래도 최선을 다해서 따라가보자.
This post is licensed under CC BY 4.0 by the author.