Translate

2017년 5월 19일 금요일

HP 더 머신 (The Machine) 프로토타입 공개



(Hewlett Packard Enterprise has unveiled a computer prototype it calls The Machine, which uses a completely new architecture that puts memory at the center of the system(Credit: Hewlett Packard Enterprise))


(Rather than fragmenting memory between different processors like standard computer systems, HPE's Machine gives all of the processors equal access to a shared pool of 160 TB of memory(Credit: Hewlett Packard Enterprise))


 HP는 두 개의 회사로 분사되기 전부터 더 머신 (The Machine)이라는 차세대 컴퓨터를 연구해왔습니다. 현재 머신의 개발은 HPE (Hewlett Packard Enterprise)에서 진행 중에 있습니다. 이 컴퓨터의 특징은 광섬유를 이용해서 거대한 메모리 풀에 각각에 CPU가 접속하는 방식이라는 점입니다.




 기존의 전통적인 컴퓨터는 각각의 CPU가 독립적으로 메모리를 가지고 연산을 수행하며 네트워크를 통해서 각각의 컴퓨터에 업무를 분할하는 방식으로 거대한 클러스터를 운영해왔습니다. 하지만 이 방식은 연결된 컴퓨터의 숫자가 늘어날수록 효율이 떨어지는 단점이 있었습니다. 


 머신은 각각의 CPU가 거대한 하나의 메모리 풀에 접근하는 다른 방식을 사용하고 있습니다. 따라서 서로 간의 정보 교환이 쉬워지며 다수의 CPU가 하나의 컴퓨터처럼 작동할 수 있습니다. 이 방식은 특히 처리해야 할 데이터의 양이 커질수록 효율이 높아지게 됩니다. 여러 컴퓨터가 서로 데이터를 교환하면서 시간을 낭비하는 대신 하나의 데이터를 공유하는 방식이기 때문입니다. HPE는 이를 메모리 중심 컴퓨팅 (Memory driven computing)이라고 설명했습니다. 




(동영상) 


 작년에 공개한 프로토타입에 이에 이번에 공개된 프로토타입은 160TB 에 달하는 거대한 메모리를 40개의 노드가 공유하는 방식이라고 합니다. 각각의 노드가 메모리를 공유하므로 거대한 데이터를 하둡 같은 툴을 이용해서 나누지 않고 한번에 처리할 수 있는 셈입니다. 


 HPE에 의하면 머신은 쉽게 크기를 늘릴 수 있으며 앞으로 요타바이트급(YB) 메모리를 공유하는 일도 가능하다고 합니다. 참고로 요타바이트면 1조 테라바이트입니다. 실제로 가능할지는 물론 두고봐야 알 수 있지만, 데이터가 커지면 커질수록 이를 쪼개서 처리하는 것이 큰 문제가 되므로 한꺼번에 처리가 가능하다면 적지 않은 의미가 있을 것으로 보입니다. 


 참고 




댓글 없음:

댓글 쓰기