카이스트(KAIST)가 기계학습ㆍ인공지능 분야 국제적인 학회 ICLR 2021 세계 연구 기관별 순위에서 TOP 7에 올랐다. (원문링크)

사진 = github.com/sharonzhou/ICLR2021-Stats
사진 = github.com/sharonzhou/ICLR2021-Stats

18일 ICLR 2021이 선정한 탑 20 기관 순위에 따르면 ▲1위 구글 ▲2위 스탠포드대 ▲3위 버클리대 ▲4위 카네기멜런대 ▲5위 MIT ▲6위 마이크로소프트로, 모두 20편을 제출(Accepted)한 카이스트는 7위로 분석됐다. 
이는 페이스북, 딥마인드, 옥스포드대 등 세계 굴지 연구기관보다 앞서는 성과다.

카이스트 논문 20편 중 16편은 인공지능(AI)대학원이 제출했다. 카이스트 인공지능대학원은 지난해 세계적인 인공지능 관련 학회 ▲NeurIPS에 총 20편 ▲ICML에 11편 ▲AAAI에 8편이 각각 등재된 바 있다.

이번 ICLR 2021에는 연구논문 2997편이 제출되고, 860편의 논문이 채택되어 28.7%의 채택률을 나타냈다.

사진 = github.com/sharonzhou/ICLR2021-Stats
사진 = github.com/sharonzhou/ICLR2021-Stats

한편, 개인별 순위에서는 탑 20 저자들 중에서 황성주 교수가 7 편으로 6위, 신진우 교수는 5 편으로 16위를 기록했다.

다음은 황성주 교수 참여 논문 목록

Meta-GMVAE: Mixture of Gaussian VAE for Unsupervised Meta-Learning Dong Bok Lee, Dongchan Min, Seanie Lee, and Sung Ju Hwang (Spotlight Presentation)

Accurate Learning of Graph Representations with Graph Multiset Pooling Jinheon Baek, Minki Kang, and Sung Ju Hwang

Federated Semi-Supervised Learning with Inter-Client Consistency & Disjoint Learning Wonyong Jeong, Jaehong Yoon, Eunho Yang, and Sung Ju Hwang

Rapid Neural Architecture Search by Learning to Generate Graphs from Datasets Hayeon Lee, Eunyoung Hyung, and Sung Ju Hwang

Contrastive Learning with Adversarial Perturbations for Conditional Text Generation Seanie Lee, Dong Bok Lee, and Sung Ju Hwang

Learning to Sample with Local and Global Contexts in Experience Replay Buffer Youngmin Oh, Kimin Lee, Jinwoo Shin, Eunho Yang, and Sung Ju Hwang

FedMix: Approximation of Mixup under Mean Augmented Federated Learning Tehrim Yoon, Sumin Shin, Sung Ju Hwang, and Eunho Yang

ICLR 2021에 접수된 나머지 9편의 논문 목록

▲Minimum Width for Universal Approximation
Sejun Park, Chulhee Yun, Jaeho Lee, and Jinwoo Shin (Spotlight Presentation)

▲Winning the L2RPN Challenge: Power Grid Management via Semi-Markov Afterstate Actor-Critic
Deunsol Yoon, Sunghoon Hong, Byung-Jun Lee, and Kee-Eung Kim (Spotlight Presentation)

▲Monte-Carlo Planning and Learning with Language Action Value Estimates
Youngsoo Jang, Seokin Seo, Jongmin Lee, and Kee-Eung Kim

▲Training GANs with Stronger Augmentations via Contrastive Discriminator
Jongheon Jeong and Jinwoo Shin

▲Representation Balancing Offline Model-based Reinforcement Learning
Byung-Jun Lee, Jongmin Lee, and Kee-Eung Kim

▲Layer-adaptive Sparsity for the Magnitude-based Pruning
Jaeho Lee, Sejun Park, Sangwoo Mo, Sungsoo Ahn, and Jinwoo Shin

▲i-Mix: A Strategy for Regularizing Contrastive Representation Learning
Kibok Lee, Yian Zhu, Kihyuk Sohn, Chun-Liang Li, Jinwoo Shin, and Honglak Lee

▲BOIL: Towards Representation Change for Few-shot Learning
Jaehoon Oh, Hyungjun Yoo, ChangHwan Kim, and Se-Young Yun,

▲FairBatch: Batch Selection for Model Fairness
Yuji Roh, Kangwook Lee, Steven Euijong Whang, and Changho Suh

AI타임스 배준영 기자 jybae0127@aitmes.com 

키워드
#KAIST
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지