Cerebras Systems, một công ty khởi nghiệp có trụ sở tại Mỹ, đã tung ra con chip lớn nhất tích hợp hơn 1,2 nghìn tỷ bóng bán dẫn và có kích thước 46.225 mm vuông. Chip Cerebras Wafer Scale Engine (WSE) mới được tối ưu hóa cho AI và lớn hơn 56,7 lần so với đơn vị xử lý đồ họa lớn nhất có kích thước 815 mm vuông và chứa 21,1 tỷ bóng bán dẫn. Cerebras Wafer Scale Engine (WSE) mới cung cấp tốc độ cao hơn 3.000 lần, bộ nhớ trên chip và đi kèm với băng thông bộ nhớ gấp 10.000 lần. Kích thước lớn hơn của chip đảm bảo rằng thông tin có thể được xử lý nhanh hơn và thậm chí có thể giảm thời gian tìm hiểu sâu hay còn gọi là “thời gian đào tạo”, cho phép các nhà nghiên cứu thử nghiệm nhiều ý tưởng hơn, sử dụng nhiều dữ liệu hơn và giải quyết các vấn đề mới.
Cerebras WSE được thiết kế cho AI và chứa đựng những đổi mới cơ bản giúp nâng cao trình độ hiện đại bằng cách giải quyết những thách thức kỹ thuật hàng thập kỷ là kích thước chip hạn chế - chẳng hạn như kết nối ô chéo, năng suất, phân phối điện và đóng gói. WSE có thể tăng tốc tính toán và truyền thông, giúp giảm thời gian đào tạo. WSE có diện tích silicon nhiều hơn 56,7 lần so với đơn vị xử lý đồ họa lớn nhất. Ngoài ra, WSE có thể cung cấp nhiều lõi hơn để thực hiện nhiều phép tính hơn và trang bị nhiều bộ nhớ gần lõi hơn, để các lõi có thể hoạt động hiệu quả. Tất cả các giao tiếp được giữ trên chính silicon vì một loạt các lõi và bộ nhớ của nó được nhúng trên một con chip.
Chip Cerebras WSE chứa 46.225mm2 silicon và chứa 400.000 lõi được tối ưu hóa bằng AI, không có bộ nhớ đệm, không có chi phí chung, lõi tính toán và 18 gigabyte bộ nhớ SRAM cục bộ, phân tán, siêu nhanh. Con chip này đi kèm với băng thông bộ nhớ 9 petabyte / giây, trong đó các lõi được liên kết với nhau bằng mạng lưới giao tiếp kết nối lưới trên chip chi tiết, toàn bộ phần cứng, mang lại băng thông tổng hợp là 100 petabit mỗi giây. Điều này có nghĩa là băng thông truyền thông độ trễ thấp của WSE là cực kỳ lớn, giúp các nhóm lõi cộng tác với nhau với hiệu quả tối đa và băng thông bộ nhớ không còn là điểm nghẽn. Nhiều bộ nhớ cục bộ hơn, nhiều lõi hơn và kết cấu băng thông cao có độ trễ thấp kết hợp với nhau tạo thành kiến trúc tối ưu để tăng tốc công việc của AI.
Các tính năng của chip Cerebras WSE:
- Tăng số lõi: WSE tích hợp 400.000 lõi tính toán được tối ưu hóa bằng AI được gọi là SLAC (Lõi đại số tuyến tính thưa thớt) có thể lập trình, linh hoạt và được tối ưu hóa cho đại số tuyến tính thưa thớt, làm nền tảng cho tất cả tính toán mạng nơ-ron. Tính năng lập trình của SLAC đảm bảo rằng các lõi có thể dễ dàng chạy tất cả các thuật toán mạng thần kinh trong lĩnh vực học máy luôn thay đổi. Các lõi WSE kết hợp công nghệ thu hoạch thưa thớt do Cerebras phát minh để tăng tốc hiệu suất tính toán trên các khối lượng công việc thưa thớt (khối lượng công việc chứa số không) như học sâu.
- Bộ nhớ nâng cao: Cerebras WSE tích hợp nhiều bộ nhớ cục bộ hơn cùng với nhiều lõi hơn bất kỳ loại chip nào cho phép tính toán linh hoạt, nhanh chóng với độ trễ thấp hơn và ít năng lượng hơn. WSE đi kèm với 18 GB (Gigabyte) bộ nhớ trên chip mà lõi của nó có thể truy cập được trong một chu kỳ đồng hồ. Bộ nhớ lõi-cục bộ này làm cho WSE cung cấp tổng cộng 9 petabyte / giây băng thông bộ nhớ, cao hơn 10.000 X băng thông bộ nhớ và 3.000 X