
웨비나
새로운 NLP 접근법을 통한 BERT 가속화
대규모 자연어 처리 모델의 성능을 극대화하는 방법을 알아보세요
자연어 처리(NLP)는 세계에서 가장 복잡한 비즈니스 문제 중 일부를 해결하는 데 사용됩니다. AI를 사용하는 기업이 NLP 작업 성능을 극대화하기 위해 노력하는 가운데, NLP 모델의 규모는 그 어느 때보다도 크게 확장되고 있습니다. GPT-3와 같은 모델의 경우 매개변수가 수천억 개에 달할 정도입니다.
머신 인텔리전스에 최적화된 그래프코어의 IPU-POD 시스템은 BERT-Large와 같은 NLP 및 트랜스포머 모델에서 이미 세계 최상급의 성능을 달성했으며, 향후 더 큰 GPT급 언어 모델을 가속화할 수 있는 가능성을 보여주었습니다.
이 웨비나에서는 IPU-POD 시스템의 BERT 훈련을 가속화하는 방법을 살펴보고, 최근 그래프코어의 고객과 연구자들이 IPU-POD 시스템을 사용하여 달성한 획기적인 NLP 성과를 소개합니다.
요약:
발표자 소개
김민규
김민규 엔지니어는 그래프코어의 필드 AI 엔지니어로 전기정보공학을 전공하고 소프트웨어 및 인공지능 분야에서 경력을 쌓아왔습니다. 그는 다양한 어플리케이션에서 딥러닝 모델의 최적화 및 가속화에 관심을 갖고 있습니다. 그래프코어에서는 한국의 기업들이 AI을 활용하고 기존의 모델을 가속화하여 혁신을 이룰 수 있도록 기술적으로 지원하고 있습니다.