최근 AI 모델은 단순히 하나의 과업만 수행하는 것이 아니라, 범용적 기능, 사용자 니즈, 사회적 규제, 기술적 특성 등 다양한 요소를 반영해야 한다. 이에 따라 AI 학습은 여러 목적함수를 동시에 최적화해야 하는 다목적 최적화 형태로 발전하고 있다. 그럼에도 불구하고 기존의 접근 방식은 여러 목적함수를 가중합으로 단일 최적화 문제로 전환하여 해결하는 방법을 사용하고 있으며, 이로 인해 기울기 상충, 기울기 크기 불균형, 그리고 제어 가능성 부족과 같은 근본적인 한계가 드러난다. 본 세미나에서는 이러한 문제를 해결하기 위해 다목적 최적화를 위한 새로운 최적화 체계인 Dual Cone Gradient Descent (DCGD)를 소개한다. DCGD는 업데이트되는 기울기의 방향을 조정하여 모든 목적함수의 기울기 간 내적이 모두 음이 아닌 벡터들로 구성된 dual cone 영역 내에 위치하도록 보장한다. DCGD의 기하학적 및 이론적 특성들을 살펴본 뒤, Physics-Informed Neural Networks 및 Machine Unlearning의 구체적인 사례에서 DCGD의 적용 가능성을 제시한다.
#Bio
임동영 교수는 카이스트 산업공학과에서 학사, 석사, 박사 학위를 취득하였으며, 박사 학위는 금융공학을 주제로 연구하였다. 이후, Marie Sklodowska-Curie Fellow로 영국 에딘버러 대학교 수학과에서 AI 학습 이론을 연구하였다. 2022년 6월부터는 UNIST 산업공학과 및 인공지능대학원에 임용되었고, 2024년 6월부터 8월까지는 영국 Alan Turing Institute에서 최적화 이론분과의 초청 연구원으로 활동하였다. 관심 연구분야는 확률론, 최적화를 이용한 AI 이론 및 응용이다.