Goolge_adsense_default_ad




A11 Bionic SoC의 몇 가지 주목할 점 칩 설계 지식 공유해요~


오늘 애플 아이폰8/8+ 및 아이폰 X를 발표하는 행사에서 새로운 SoC(System-on-Chip)인 A11 Bionic이 함께 발표 됐습니다. TSMC의 10nm 공정으로 제작되었고 2개의 High-Performance 코어와 6개의 High-Efficiency CPU 코어를 탑재한 최신의 SoC 입니다. 



개인적으로는 CPU보다 두 가지 사항이 눈에 띄었는데, 첫 번째는 애플의 자체 GPU가 Imagination과의 결별설이 나오고 나서 발표된 첫 SoC에서 바로 등장했다는 점이고 GPU와는 별도로 Neural Engine이 탑재되었다는 점 입니다. 예전에 애플 자체 GPU 개발 관련 기사를 번역한 이후 애플의 GPU 개발 방향에 관심을 가지고 지켜보고 있었는데, deep learning을 이용한 어플리케이션이 쏟아져 나오는 상황에서 애플이 이를 GPU에 deep learning 가속 기능을 추가하는 방향으로 개발을 진행할지 GPU와는 별개의 deep learning 가속기를 개발 할지가 궁금했기 때문이지요.



오늘 발표를 보니 GPU는 3D 그래픽 가속기능과 관련된 Metal 2 API를 지원하는데 집중하고, Core ML은 별도의 Neural Engine을 통해 지원을 하는 것으로 정리가 된 것으로 보입니다. 제 생각으로는 deep learning을 바탕으로 구현된 Face ID를 지원하기 위한 것이 주요한 이유로 생각이 되는데 빈번한 사용이 예상되는 기능이다 보니 GPU에 deep learning 가속 기능을 추가하는 것 보다 별도의 Neural Engine을 개발하는 것이 전력소모를 줄이는데 훨씬 유리하기 때문입니다. 



오늘 키노트에서 언급되기로 A11 Bionic에 탑재된 Neural Engine은 Dual-Core 설계에 600 Giga-OPs 성능을 낸다고 하니 GHz 단위의 동작속도를 가정 하더라도 적어도 100~200개의 MAC (Multiply-Accumulate) 연산을 동시에 할 수 있는 data path가 있다는 얘기인데, 이 정도 규모라면 구글의 TPU 처럼 systolic array로 구현했을지 아니면 일반적인 SIMD 프로세서 처럼 각각의 ALU가 register를 자유롭게 접근할 수 있는 형태로 구현했을지가 궁금하네요. 애플이 스스로 밝힐리는 없으니 훌륭한 누군가가 Neural Engine의 구조를 설득력있게 추측해주길 기대해 봅니다. 


일단은 공개된 자료가 없는 관계로 이 정도로만 글을 마무리하고 나중에 벤치마크 결과나 추가로 공개되는 자료가 있다면 공부를 한 뒤 쓸만한 내용이 있다면 다시 글을 올리겠습니다. 제가 알기로 지금도 여러 개발팀에서 deep learning 가속기를 개발하고 있는 것으로 아는데 애플의 발표 덕분에 전용 가속기를 개발하는 대신 그냥 GPU를 쓰면 되지 않느냐는 질문에 대해서는 조금 자유로워 질 것 같습니다. 








덧글

댓글 입력 영역