IT,과학

종래비 3배이상 고속 및 소비 전력에 94%을 삭감하는 뉴럴네트워크용 팁을 MIT가 개발

나나시노 2018. 2. 19. 11:40
반응형




종래비 3배이상 고속 및 소비 전력에 94%을 삭감하는 뉴럴네트워크용 팁을 MIT가 개발



MIT 연구자가, 종래부터도 3배이상 고속으로 계산 처리할 수 있고, 소비 전력을 94%도 삭감할 수 있는 뉴럴네트워크용 팁을 개발했습니다.



일반적인 프로세서 모델에서는, 팁내 프로세서와 메모리가 갈라지고 있어 연산할 때에 메모리와 CPU간에서 데이터 교환이 실시됩니다. 그 때문에, 「대량의 계산 처리가 실시되는 기계학습 알고리즘에서는, 데이터 전송이 에너지 소비가 지배적인 요인이 되고 있습니다」라고 MIT컴퓨터 사이언스 학생 아비셰크 비스와스(Avishek Biswas)씨는 말합니다. 거기에서, 기계학습 알고리즘의 계산을 「닷 프로덕트」라고 불리는 특정한 조작에 단순화해서 메모리내에 추가하는 것으로, 데이터를 CPU와 메모리에서 왕복시키는 처리를 피하는 것으로, 연산의 고속화와 소전력화를 실현하려고 하는 것이, 새롭게 개발한 뉴럴네트워크용 팁입니다.




뉴럴네트워크는 전형적으로는 레이어내에 배치됩니다. 네트워크에 하나 레이어에서 단일인 처리 노드는, 일반적으로는 하위 레이어에 있는 몇 가지 노드로부터 데이터를 수신하고, 상위 레이어 몇 가지 노드에 데이터를 건네 줍니다. 노드간의 각각 접속은 독자적인 「무게」를 가지고 있습니다. 무게란, 다음 노드가 실행하는 계산에 있어서 얼마나 큰 역할을 다할지를 나타내는 지표입니다. 뉴럴네트워크에서 「훈련」이란, 무게를 설정하는 작업입니다.


하부 레이어내에 있는 여러 노드로부터 데이터를 수신하는 노드는, 각각 입력에 대응하는 접속 무게를 가한 결과를 서로 더하게 하는 계산이 「닷 프로덕트」입니다. 닷 프로덕트가 어떤 수치를 넘으면, 노드는 그것자체의 무게를 가지는 접속을 통해서, 다음 층에 닷 프로덕트를 송신한다고 하는 작업을 합니다.


이번, Biswas씨들이 개발한 팁에서는, 노드 입력치는 전압으로 변환되어, 그 후, 무게를 곱셈합니다. 닷 프로덕트를 합산하는 것은 단지 전압을 서로 더하게 되고, 합쳐진 전압만이 디지털 정보로서 이후의 처리 위해서 저장된다고 하는 구조입니다. 이것에 의해 팁은 많은 노드에 대하여 닷 프로덕트를 계산할 수 있고, 시작 단계에서 한번으로 메모리와 CPU간에서 데이터를 주고받고 할 일 없고 16개를 계산할 수 있었다고 합니다.


MIT에 의하면, 새팁에 의해 현시점으로 뉴럴네트워크 계산 속도를 종래비 3배에서 7배로 향상시키는 것에 성공하고 있어, 소비 전력은 94∼95%도 삭감하는 것에 성공하고 있습니다. 지금까지 스마트폰 등 어플에서는, 서버에 데이터를 업로드해서 서버상에서 계산 처리한 결과를 돌려주고 있었습니다만, 새팁이라면 로컬(단말측)에서 뉴럴네트워크를 실행할 수 있다고 생각됩니다.




반응형