Biomedical 분야
Recent study
- Genome modeling and design across all domains of life with Evo 2 (Brixi et al., Nature, 2026)
- Arc Institute, Stanford, NVIDIA 등의 연구진이 협력하여 최근(2026년 3월) 발표한 현존 최고 규모의 유전체 파운데이션 모델(Genomic Foundation Model) 논문입니다. 기존 트랜스포머를 개선한 'StripedHyena 2' 아키텍처를 사용하여, 단일 염기 해상도로 무려 100만 개(1M)의 토큰(염기서열)을 한 번에 처리할 수 있습니다.
- scGPT: Toward Building a Foundation Model for Single-Cell Multi-omics Using Generative AI (Cui et al., Nature Methods, 2024)
- 단일 세포 RNA 시퀀싱(scRNA-seq) 데이터를 마치 텍스트처럼 취급하여 학습시킨 파운데이션 모델입니다. 유전자 발현 패턴을 분석하고 세포 타입을 분류하는 등 바이오 분야에서 생성형 AI가 어떻게 쓰이는지 보여주는 훌륭한 최신 사례입니다.
- Accurate structure prediction of biomolecular interactions with AlphaFold 3 (Abramson et al., Nature, 2024**)**
- 기존 AlphaFold가 단백질 구조 예측에 머물렀다면, 이 최신 버전은 DNA, RNA, 그리고 신약 개발의 핵심인 리간드(Ligand)와의 상호작용까지 예측합니다. 생물학적 시스템 전체를 AI로 모델링하는 방향성을 제시합니다.
- Large language models encode clinical knowledge (Singhal et al., Nature, 2023)
- 구글의 의료용 언어 모델인 'Med-PaLM'을 소개한 논문입니다. AI가 객관식 의사 면허 시험 문제를 푸는 것을 넘어, 전문가 수준의 의학적 추론과 환자 답변을 어떻게 생성해 내는지 임상적 관점에서 짚어볼 수 있습니다.
Classical study
- Highly accurate protein structure prediction with AlphaFold (Jumper et al., Nature, 2021)
- AI for Science를 상징하는 가장 위대한 성과 중 하나입니다. 아미노산 서열만으로 단백질의 3차원 구조를 원자 수준의 정확도로 예측해낸 과정을 담고 있습니다. 진화적 정보(MSA)와 공간적 그래프(Spatial Graph)를 AI가 어떻게 처리하는지 배울 수 있습니다.
- Deep generative modeling for single-cell transcriptomics (Lopez et al., Nature Methods, 2018)
- 단일 세포 RNA 시퀀싱(scRNA-seq) 데이터 분석에 딥러닝을 본격적으로 도입한 scVI 모델 논문입니다. VAE를 이용해 유전자 발현 데이터의 노이즈를 줄이고, 고차원 데이터의 잠재 공간을 학습하는 과정을 보여줍니다.
- A deep learning approach to antibiotic discovery (Stokes et al., Cell, 2020)
- MIT 연구진이 AI를 이용해 기존 항생제에 내성을 가진 슈퍼박테리아를 죽일 수 있는 새로운 항생제 물질('할리신')을 찾아낸 논문입니다. 분자 구조를 그래프로 표현하여 딥러닝에 적용하는 방법(Graph Neural Networks)을 이해하기 좋습니다.
Mathematics
- Solving olympiad geometry without human demonstrations (Trieu et al., Nature, 2024)
- 국제 수학 올림피아드(IMO) 수준의 기하학 문제를 인간의 증명 데이터 없이 스스로 학습해 풀어낸 'AlphaGeometry' 논문입니다. 기호 추론(Symbolic deduction) 엔진과 언어 모델을 결합한 하이브리드 접근법이 인상적입니다.
- Llemma: An Open Language Model For Mathematics (Azerbayev et al., ICLR, 2024)
- 수학적 추론에 특화된 오픈소스 언어 모델입니다. 대규모 수학 논문과 코드 데이터를 어떻게 전처리하고 학습시켜 정리를 증명하고 수학적 문제를 해결하는지, LLM의 수학적 한계와 가능성을 토론하기 좋습니다.
- Discovering governing equations from data by sparse identification of nonlinear dynamical systems (Brunton et al., PNAS, 2016)
- 최근 논문은 아니지만, 수리생물학이나 물리 시스템을 공부할 때 반드시 짚고 넘어가야 할 SINDy 알고리즘 논문입니다. 관측된 데이터만으로 복잡계의 지배 방정식과 분기(Bifurcation) 특성을 찾아내는 머신러닝 기법으로, 비선형 동역학을 다루는 학생들에게 강력한 도구가 됩니다.
Physics
- Physics-informed neural networks (PINNs): A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations (Raissi et al., Journal of Computational Physics, 2019)
- AI for Science 물리 분야의 핵심인 PINN을 제안한 기념비적 논문입니다. 신경망의 손실 함수(Loss function)에 미분방정식(물리 법칙)을 제약 조건으로 추가하여, 데이터가 부족한 상황에서도 물리적으로 타당한 예측을 해내는 원리를 다룹니다. 동역학계나 분기 이론(Bifurcation) 등 복잡한 시스템 모델링에 관심 있는 학생에게 훌륭한 인사이트를 줍니다.
- GraphCast: Learning skillful medium-range global weather forecasting (Lam et al., Science, 2023)
- 구글 딥마인드가 개발한 기상 예측 AI 논문입니다. 복잡한 유체역학 방정식(Navier-Stokes)을 푸는 기존 슈퍼컴퓨터 물리 모델을, 그래프 신경망(GNN) 기반의 AI가 속도와 정확도 면에서 어떻게 압도했는지 보여줍니다.
- Fourier Neural Operator for Parametric Partial Differential Equations (Li et al., ICLR, 2021)
- 물리 현상을 설명하는 편미분방정식을 푸는 새로운 패러다임인 FNO를 제안한 논문입니다. 공간을 격자(Mesh)로 나누어 계산하던 기존 방식을 벗어나, 푸리에 변환을 이용해 연속적인 함수 공간 자체를 학습하는 우아한 수학적, 물리적 접근을 보여줍니다.