2019 Fall) Samsung AI Forum삼성 AI포럼을 갔다오고...
Events

2019 Fall) Samsung AI Forum삼성 AI포럼을 갔다오고...

이 글은 필자가 2019년 11월 4일-5일, 이틀에 걸쳐 열린 제 3회 Samsung AI Forum에 참석하고 정리한 글입니다.  포럼에 대해서 궁금하시다면 여기를 눌러서 해당 사이트에 들어가보세요!

 

 Samsung Research삼성 리서치에게서 메일이 와서 받게 된 포럼 초대장으로 포럼에 참가하게 되었다. 사실 이런 포럼 행사가 내 미래를 일구는 주 내용이 될 수 있다는 생각에 이런 행사들은 무조건! 참석하게 된다. 학교 수업이 있는 관계로 두 개의 Keynote들을 듣게 되었고, 내용들도 매우 신박하였다.

 그 전에 삼성 R&D 캠퍼스를 처음 갔는데 생각보다 되게 깔끔하고, 안전요원도 대기하고 있어서 대기업은 다르구나 하는 생각을 또다시 가지게 되었다.

삼성 R&D 캠퍼스를 찍은 사진들

 

포럼 내부 사진

 총 두 교수님, Noah Smith(University of Washington)과 Abhinav Gupta(Carnegie Mellon University)의 강연을 듣게 되었다.

첫 교수님, Noah Smith는 Rational Recurrences for Empirical Natural Language Processing 이라는 제목으로 강연을 하셨는데,

첫번째 교수님 강연 중...

요약해보자면, 

 교수님의 분야이신 RNN부분에서의 NLP(Natural Language Processing, 자연어 처리)쪽에 SoPa라는 개념을 만드셔서 그것에 대해서 설명하셨다. SoPa는 Soft Patterns의 축약어로, 단어 벡터들을 점수주는 방식으로 작동된다.(관련 깃허브) NLP쪽에 대해서 알고 있었지만 새로운 개념을 만드신 분께서 직접 나와서 설명하는게 너무 신기하였으며. 새로 방식으로 만들어내는 과정을 보면서 아직 갈길이 멀었구나를 체감하였다. 여기서 또 교수님이 말씀하신 건 요즘은 pattern 자체를 인식하는 방식보다는 너무 성능 효율을 중시한다. 이런 말씀을 하셨는데, 나또한 여러가지 CNN 논문들(AlexNet, VGG, GoogLeNet, ResNet 등등...)을 보면서 동의하게 되었다. 너무 성능 효율에 치우쳐져서 정작 만든 것들에 대한 이해(모델 자체에 대한 이해)가 부족한 것이 문제라고 생각한다.

 

  두 번째 교수님 Abhinav Gupta께서 Supersizing and Empowering Visual and Robot Learning이라는 제목으로 강연을 하셨는데, 요즘 들어 강화학습과 로봇공학쪽에 관심이 있던 터라 매우 흥미롭게 보았다. 내용도 또한 너무 재미있고, 배울 점도 넘쳐났다.

두번째 교수님! 굉장히 집중해서 보았다.

 우선 이 교수님께서는 로봇들을 어떻게 학습시킬까에 관한 문제부터 출발하게 되었는데, 이 학습 방식을 교수님 말씀을 따오면 "Building Robots that Learn like babies"라고 하시면서 처음부터 아기를 가르치듯이 학습을 하는 방식으로 stages가 여러개 있어서 학습하는 방식으로 진행되었다. 로봇도 행동 자체가 강화학습과 연결되어서 굉장히 흥미롭게 보았다. 로봇에서 나오는 여러가지 문제점들(hard to scale, too expensive, too brittle, no diversity of environment/tasks, hardware conditioned policies)들을 하나하나 말씀하시면서 어떻게 해결해나가고 있는지 설명해주셨다. 이를 로봇에 한정하지 않고 또 Drone에 접목하여 self-supervised Drone도 만드셨다. 다양한 모습을 학습시키기 위해 video를 학습시키고, NEIL(Never Ending Image Learner), Scaling Data(image 자체를 9가지 영역으로 나눠 주변을 연결하며 학습시키는 방법), 로봇 자체가 움직이면서 학습하는 방법들을 소개해주셨다. 좀 신기한 부분은 데이터가 많아져도 모델 성능이 좋아지는가?에 대한 여러가지 싸움들에 대한 인사이트를 주셨는데, GPU가 좋아지고, 모델도 무거워지는 추세에 데이터 개수들을 거의 일정한 방향에 주목하시면서 많다고 좋은 것은 아님을 말씀하셨지만, 그래도 Deeper한 model들에는 데이터가 많을수록 좋다는 말씀도 주셨다. 교수님께서는 "Democratization of Robotics"를 꿈꾸시면서, 이러한 실험을 계속 행하시는 부분이 참 좋았다!(여기에 대한 일환으로 자신이 만드신 Pyrobot을 소개해주셨다.)

 강화학습에 들어가는 나에게 굉장히 새롭게 다가왔고, 강화학습과 머신러닝, 인공지능이라는 세부 분야들에 대해 고민하던 나에게 큰 도움을 주었다.(작성하는 지금은 강화학습으로 가려고 생각중이다.) 또한 이런 명문대들도 쉽게 연구하는 것은 절대 아니라는 생각을 하였다. 이들은 세상을 바꿀 생각들로 이렇게 열심히 학습시키는 모습들(특히 두번째 교수님의 열정이 정말 장난 아니었다.)을 보니 나도 열심히 살아야겠다는 생각을 다시금 가지게 해주었다. 가길 잘했다는 생각들로 가득찬 좋은 포럼이었다. 항상 참석해야겠다!:)(이런 행사를 연 Samsung Research분들 정말 대단하시다.)