디지털 바이너리 AI 가속기, 광선 투사 가속기, 이벤트 중심 비주얼 데이터 프로세서...AI 챌린지에 적합

 

(사진=셔터스톡)
(사진=셔터스톡)

인공지능(AI) 챌린지에 도움이되는 하드웨어는 뭐가 있을가. 인텔이 지난 14일부터 오는 19일까지 온라인으로 진행하는 '2020 VLSI 기술 및 회로 학술회'에서 3가지 하드웨어 솔루션을 제안했다.

벤처비트는 16일(현지시간) 인텔이 분산 데이터를 토대로 한 컴퓨팅 트랜스포메이션에 대한 연구를 진행한 결과, 이같은 내용을 담은 연구논문을 발표했다고 소개했다. 다음은 인텔이 제안한 AI 챌린지에 도움이 되는 하드웨어 솔루션 3종이다.

디지털 바이너리 AI 가속기

전력 및 리소스가 제한된 에지 장치에서 일부 애플리케이션은 낮은 정밀도의 출력만이 허용된다. 반면 아날로그 바이너리 신경망 (BNN)은 더욱 높은 정밀도와 많은 계산량을 필요로 하는 메모리 중심의 AI 알고리즘의 대안으로 떠오르고 있다.

그러나 아날로그 BNN은 변동성과 노이즈에 대한 내성이 적어 낮은 예측 정확도를 보이고 있다.

인텔은 이번 학술회에 공개한 논문에서 10억개의 활성화 기능과 가중치를 구현하는 10나노미터로 이뤄진 디지털 BNN 칩의 잠재성을 설명했다. 

연구원들은 그들의 올 디지털 접근법이 와트(W) 당617테라 연산/초(TOPS)를 달성할 수 있게 해 준다고 주장한다. 여기서 TOPS는 딥러닝 관련 작업을 할 때 효율성을 측정하기 위한 성능 지표다. 이 접근 방식은 이전의 디지털 구현 방식과 비교할 때 컴퓨팅 밀도는 2.8배~135배, 에너지 효율은 2.7배 더 높다.

또 이 칩은 트랜지스터 수를 늘리거나 연산 효율을 떨어뜨리는 콘덴서를 탑재하지 않은 대신 출력 활성화, 비교 작업 등을 지원하는 161KB 메모리와 메모리 실행 단위(MEUs)을 제공한다. 
중앙 집중식 컨트롤러는 입력, 출력 및 가중치를 저장하는 4개의 메모리 뱅크에서 데이터 흐름을 조정한다. 전체 설계를 완료하기 위해 각 16개씩 8개의 MEU집합체에 연결돼 있다.

광선 투사 가속기

동시 현지화 및 맵핑(SLAM)에서 가속기 칩은 시간 경과에 따른 위치 변화를 추정하기 위해 모션 센서의 데이터 사용과 경로 계획에 사용하는 경우가 많다. 그러나 이러한 칩들은 정확한 표면 추정과 3D장면 재구성과 같은 고밀도 SLAM작업을 수행하는 데 어려움을 겪고 있으며, 이를 위해서는 대량의 실시간 시각 데이터를 처리해야 한다.

광선 투사는 저전력 에지 처리 시스템에서 고밀도 SLAM을 실행하는 기술이다. 현재 프레임의 각 픽셀에 광선을 배치한다. 또 솔리드 객체의 첫번째 교차점까지 3D주변 지도를 매 단계에서 측정 장치, 컴퓨터의 일부, 네트워크의 노드상태를 확인한다.

광선 주조를 가속화하려면 광선의 각 샘플링 포인트에 적어도 8개의 주변 3D공간에서 그리드의 값을 나타내는 개체가 필요하다. 하지만 근거리에서 광선은 중첩되는 복셀 영역을 차단해 칩의 메모리 액세스와 데이터 이동을 최적화할 수 있는 기회를 제공한다.

이를 이용해 인텔의 한 논문은 공동 제작자들이 복셀의 인접성을 이용하기 위해 공간적으로 인접하게 여러 광선을 방출하는 10나노 미터의 보완 금속 주조 가속기인 '광선 주조 가속기'라고 부르는 것을 제안한다. 연구원들은 프레임당 23.2밀리 초의 평균 대기 시간을 가진 320x240픽셀의 광선 주조를 보여 주는 동시에 와트 당 115.3기가바이트의 최대 에너지 효율을 달성한다고 밝혔다.

이벤트 중심 비주얼 데이터 프로세서

실시간 AI 시각적 분석에는 여러 비디오 스트림에서 빠른 물체 감지뿐만 아니라 높은 계산주기와 하드웨어 메모리 대역폭이 필요하다. 문제를 악화시키면서 데이터를 캡처하는 카메라의 프레임은 일반적으로 이미지를 다운 샘플링하여 해당로드를 최소화하므로 이미지 정확도가 저하된다.

인텔 연구팀은 이 문제를 해결하기 위해 이벤트 중심의 시각적 데이터 처리 장치 (EPU)를 제안했다. 새로운 알고리즘과 함께 AI 가속기 칩에 모션 기반 "관심 영역"을 사용해 시각적 입력 만 처리하도록 지시 할 수 있다. EPU 파이프 라인은 초당 70 프레임의 풀HD비디오와 이벤트 감지 및 이벤트 클러스터링과 같은 워크로드를 지원한다. 이를 통해 AI 비전 하드웨어의 단대단(end to end) 에너지 효율을 5 배, 처리량은 4.3 배 향상시킨다.

모든 EPU 클럭 사이클, EPU에서 실행되는 '이벤트파이어' 알고리즘은 현재 또는 이전 프레임에서 16 픽셀의 배치 강도를 비교한다. 또 별도의 모듈은 이벤트를 공간과 시간을 상관시켜 결합한다. '콘볼버' 알고리즘은 모션을 포함하지 않은 프레임 영역을 건너 뛰고 실내, 실외, 주간 및 야간 장면을 분석한다.

분산 된 에지, 네트워크, 클라우드 인프라로 작동하는 데이터는 생성 위치에서 효율적인 에너지로 강력한 처리를 한다. 하지만 대역폭, 메모리 및 전력 자원에 의해 종종 제한된다. 인텔이 VLSI 학술회에서 선보인 연구는 로봇 공학 및 증강 현실에서 머신 비전 및 비디오 분석에 이르기까지 다양한 응용 분야에 대한 가능성을 보여준다. 또 보다 효율적인 계산에 대한 몇 가지 새로운 접근법을 강조했다. 이러한 연구는 미래의 가장 큰 데이터 문제를 나타내는 데이터 이동 및 계산의 장벽을 해결하는 데 중점을 두고 있다.

[관련기사] 기가바이트, NVIDIA A100 GPU탑재 신제품 공개

[관련기사] 컴퓨팅 속도 3배 높여주는 'AI 모델 훈련기법'