FPGAi
Tăng tốc độ kích hoạt AI cho giải pháp tùy chỉnh của bạn. Tìm hiểu cách FPGAi cho phép bạn kích hoạt và triển khai AI trong giải pháp tùy chỉnh của mình để đạt được độ trễ thấp, hiệu quả năng lượng và sự nhanh nhẹn cần thiết cho sự đổi mới liên tục.
Dẫn đầu kỷ nguyên mới về AI với Altera FPGA
Kết hợp FPGAs và AI không chỉ là một sự tiến hóa - đó là một cuộc cách mạng.
Altera đang mang đến kỷ nguyên mới của FPGAi với kết cấu FPGA hiệu năng cao và được tích hợp AI. Logic lập trình và AI được tích hợp chặt chẽ của chúng tôi cho phép thích ứng dữ liệu theo thời gian thực và ra quyết định tự động, trang bị cho các hệ thống để đạt được sự phức tạp thế hệ tiếp theo.
Tại sao FPGAs cho AI
Khối lượng công việc AI ngày càng trở nên phức tạp và đòi hỏi khắt khe hơn, vì vậy việc lựa chọn phần cứng phù hợp để tăng tốc AI là rất quan trọng. Tìm hiểu cách FPGAs có thể cung cấp các giải pháp mạnh mẽ và linh hoạt cho các ứng dụng AI.
Tại sao FPGA tốt cho việc triển khai AI biên và các ứng dụng học máy
Đọc các trường hợp sử dụng mới nổi của suy luận AI dựa trên FPGA trong các ứng dụng AI biên và tùy chỉnh và các giải pháp phần mềm và phần cứng của Intel cho AI FPGA Edge.
FPGA so với GPU cho Học sâu
Mặc dù không có cấu trúc đơn lẻ nào hoạt động tốt nhất cho tất cả các ứng dụng học sâu và học máy, FPGA có thể mang lại những lợi thế khác biệt so với GPU và các loại phần cứng khác.
Mạng thần kinh lượng tử cho suy luận FPGA
Lượng tử hóa có độ chính xác thấp cho mạng thần kinh hỗ trợ các thông số kỹ thuật ứng dụng AI bằng cách cung cấp thông lượng lớn hơn cho cùng một kích thước hoặc giảm sử dụng tài nguyên.
Các Đối tác Tăng tốc AI tại Biên
Xem các video này để tìm hiểu cách các đối tác của Altera có thể giúp bạn tăng tốc khối lượng công việc AI trên FPGA.
Ứng dụng FPGAi
AI Biên
FPGAs đặc biệt phù hợp với AI biên trong các ứng dụng công nghiệp, y tế, thử nghiệm và đo lường, hàng không vũ trụ, quốc phòng và phát sóng khác nhau. Bộ xử lý Arm tích hợp, bộ xử lý mềm Nios® V và các giao thức IO đa dạng hỗ trợ dữ liệu đa dạng ở biên cùng với độ trễ thấp xác định, công suất thấp và tuổi thọ mang lại cho FPGAs những lợi thế bổ sung ở biên.
GenAI hoặc Tùy chỉnh
Agilex™ 7 FPGA M-Series có thể được sử dụng để suy luận LLM dựa trên máy biến áp tùy chỉnh, vượt trội hơn GPU về sức mạnh và kích thước.
Với HBM2E 32 GB cung cấp 820 GBps và DDR5 lên đến 512 GB ở tốc độ 224 GBps, đây là lựa chọn lý tưởng cho LLM và bộ nhớ đệm KV. SERDES tốc độ cao (116 Gbps), hỗ trợ 800 GbE và PCIe 5.0 (64 GBps) đảm bảo mở rộng quy mô và truyền dữ liệu nhanh chóng. DSP có độ chính xác thay đổi của thiết bị hỗ trợ các định dạng thân thiện với suy luận AI như FP16, bfloat16 và INT8. Kiến trúc Hyperflex™ cho phép hoạt động 500MHz+ để suy luận AI nhanh chóng.
Đính kèm AI
Với hỗ trợ 800 GbE, các giải pháp được thiết kế riêng có thể được thiết kế cho những người tạo cụm AI với FPGAs hoạt động như FPGA các NIC AI để giảm việc nhập dữ liệu, chập chờn và tắc nghẽn mạng của GPU trong quá trình đào tạo hoặc suy luận. Các tùy chọn tiêu chuẩn tùy chỉnh và mở để mở rộng quy mô vào và mở rộng quy mô được hỗ trợ.
FPGAs rất tốt cho quá trình tiền xử lý AI, nơi dữ liệu được định dạng và lọc để sử dụng hiệu quả trong đào tạo hoặc suy luận AI.
FPGAs có thể tăng tốc cơ sở dữ liệu doanh nghiệp tư nhân để truy xuất dữ liệu nhanh chóng.
Khả năng giải pháp: FPGA hiệu năng cao
Agilex™ 7 FPGA M-Series với 89 INT8 TOPS, dung lượng bộ nhớ HBM2e trong gói (băng thông 32GB và 820Gbps) và bộ điều khiển bộ nhớ DDR5/LPDDR5 cứng (hỗ trợ 5600MBP) giúp giảm bớt tắc nghẽn cho các mô hình AI giới hạn bộ nhớ như mô hình máy biến áp dựa trên Generative AI LLM.
Các thiết bị FPGA Agilex™ 5, với tối đa 56 TOP INT8, có kết cấu FPGA đầu tiên được truyền các khối tenxơ AI để có mật độ tính toán cao hơn. Các khối tensor có thể thực hiện 20 BlockFP16 hoặc INT8 nhân tích lũy trong một chu kỳ xung nhịp, dẫn đến mật độ tính toán tăng gấp 5 lần so với các thiết bị khác trong danh mục FPGA Agilex.
Khả năng sử dụng của nhà phát triển: Chuyển đổi mô hình liền mạch, được đào tạo trước &; Tự động tối ưu hóa cho FPGA Tài nguyên
FPGA AI Suite cung cấp chuyển đổi nút nhấn của mô hình được đào tạo trước sang IP suy luận AI bằng cách sử dụng OpenVINO. Công cụ Tự động tối ưu hóa của bộ phần mềm quét không gian thiết kế để triển khai tối ưu các mô hình AI.
Có thể truy cập mô phỏng phần mềm của IP FPGA AI Suite thông qua giao diện plugin OpenVINO, cho phép đánh giá nhanh độ chính xác của IP AI FPGA mà không cần phần cứng (chỉ khả dụng cho Agilex™ 5 FPGA).
FPGA AI Suite tích hợp Phần mềm thiết kế Quartus® Prime và Trình thiết kế nền tảng để đơn giản hóa việc kết hợp IP suy luận AI.
Tính linh hoạt của ứng dụng: Cho phép đổi mới liên tục
Các kỹ sư có thể tạo ra và phát triển các giải pháp AI với FPGAs để luôn dẫn đầu công nghệ bằng cách sử dụng thiết bị1 khả năng lập trình lại, vòng đời sản phẩm kéo dài và các tùy chọn I/O linh hoạt cho phép đổi mới và thích ứng liên tục.
FPGAs vốn đã phù hợp với AI. Việc FPGAs hàng nghìn khối DSP, hệ thống phân cấp bộ nhớ và hỗ trợ I/O rộng rãi cho phép tùy chỉnh thiết kế và xây dựng mạng AI từ đầu để đạt được hiệu suất tối ưu.
Các mô hình AI có kích thước khác nhau có thể được triển khai hiệu quả — từ TinyML tiết kiệm năng lượng đến các mô hình vừa và lớn ở biên và các mô hình Máy biến áp GenAI LLM trong trung tâm dữ liệu.
Khám phá Tài nguyên để giúp bạn bắt đầu
Bộ Intel® FPGA AI
Tăng tốc độ phát triển FPGA của bạn cho suy luận AI bằng cách sử dụng các khung như TensorFlow hoặc PyTorch và bộ dụng cụ OpenVINO, đồng thời tận dụng các luồng phát triển FPGA mạnh mẽ và đã được chứng minh với Phần mềm Intel Quartus Prime.
Tìm hiểu thêm
Bản phân phối Intel® của bộ dụng cụ OpenVINO™
Bộ dụng cụ nguồn mở giúp dễ dàng viết một lần và triển khai ở mọi nơi.
Tìm hiểu thêm
Bạn cần thêm thông tin?
Hãy cho chúng tôi biết cách chúng tôi có thể giúp bạn giải quyết câu hỏi.
Liên hệ với chúng tôi