Tại sao nên chọn Intel + Red Hat?
Các công cụ AI nâng cao
Các nhà phát triển tại các nhà cung cấp phần mềm độc lập (ISV) đầu ngành và người dùng cuối là doanh nghiệp sử dụng các công cụ và tối ưu hóa khung của Intel® để xây dựng nền tảng, hệ thống và ứng dụng AI của họ. Sử dụng Intel® AI Analytics Toolkit (AI Kit), Bản phân phối Intel® của bộ dụng cụ OpenVINO™, cnvrg.io và Habana, các nhà phát triển có thể học, kiểm tra và triển khai các công cụ AI bằng cách sử dụng hộp cát AI OpenShift Red Hat. Kiểm tra Red Hat OpenShift AI Sandbox tại đây --›
Bảo mật Nâng cao
Được hỗ trợ bởi Nhà điều hành plugin thiết bị Intel® cho Nền tảng vùng chứa OpenShift Red Hat, Intel® Software Guard Extensions (Intel® SGX) cung cấp khả năng bảo vệ dữ liệu nâng cao. Kiểm tra Nhà điều hành Plugin Thiết bị Intel® tại đây--›
Công nghệ Mới nhất
Intel hợp tác chặt chẽ với Red Hat để triển khai các công nghệ và phần mềm mới nhất với mức độ tối ưu hóa cao. Khách hàng có được kiến trúc đám mây hạng nhất, các vùng chứa được tối ưu hóa khối lượng công việc và các giải pháp tích hợp.
Giải pháp nổi bật
Hợp lý hóa việc áp dụng và triển khai AI của doanh nghiệp
Kết hợp Red Hat OpenShift AI và Intel Enterprise AI cung cấp một giải pháp phần cứng và phần mềm thống nhất, nhất quán, được xác thực và tích hợp cho AI doanh nghiệp, ngay lập tức.
Tóm lược giải pháp tập trung vào AI 4.12
Dễ dàng triển khai và chạy tất cả khối lượng công việc chuỗi quy trình dữ liệu của bạn trên cơ sở hạ tầng mở đã được xác thực có bộ tăng tốc cũng như các thư viện và khung được tối ưu hóa.
Tích hợp và đơn giản hóa AI sản xuất
Các công nghệ của Intel được tích hợp và tối ưu hóa với các công cụ AI/ML nguồn mở và Red Hat OpenShift AI để cung cấp trải nghiệm đơn giản hóa cho các nhà khoa học dữ liệu, nhà phát triển và nhân viên vận hành.
Tăng tốc NLP chạy trên Red Hat OpenShift và VMware
Tăng tốc độ khối lượng công việc NLP AI trên Red Hat OpenShift trong môi trường VMware ảo hóa được xây dựng trên bộ xử lý có thể mở rộng Intel® Xeon® thế hệ thứ 4 với Intel® AMX.
Mã nguồn mở là chìa khóa trong sản xuất trong tương lai
Các hệ thống điều khiển quy trình trên nền tảng điện toán biên có thể hoạt động với độ chính xác và hiệu quả, củng cố vòng phản hồi đổi mới trong các quy trình sản xuất liên tục.
AI Masterclass Sử dụng Intel® Developer Cloud cho Biên
Tìm hiểu cách sử dụng hộp cát dành cho nhà phát triển Red Hat OpenShift AI để suy luận AI trên phần cứng Intel®.
Red Hat và Intel® AI và Machine Learning: Sự kết hợp hoàn hảo cho các nhà khoa học dữ liệu
Một cách tuyệt vời để tối ưu hóa quy trình làm việc khoa học dữ liệu của nhà phát triển.
Intel® Distribution toán viên bộ công cụ OpenVINO™
Việc Intel® Distribution Người vận hành Bộ công cụ OpenVINO™ đơn giản hóa việc quản lý suy luận học sâu được tối ưu hóa trên quy mô lớn trong OpenShift.
Nhà điều hành Intel® oneAPI AI Analytics Toolkit
Bộ công cụ phân tích AI oneAPI của Intel® (Bộ công cụ AI) cung cấp một bộ công cụ phần mềm AI có thể tương tác toàn diện giúp đẩy nhanh các quy trình khoa học dữ liệu và học máy đầu cuối trên kiến trúc Intel.
Nhà điều hành AI Habana
Nhà điều hành này quản lý các máy gia tốc Habana Labs trong một cụm Kubernetes.
Trình điều khiển Intel® Data Center GPU cho OpenShift
Intel® Data Center GPU Hình ảnh bộ chứa trình điều khiển cho Red Hat OpenShift Container Platform.
Nhà điều hành cnvrg.io
Nền tảng cnvrg.io cung cấp nền tảng học máy đầu cuối để xây dựng và triển khai các mô hình AI trên quy mô lớn.
Một cách tuyệt vời để tối ưu hóa quy trình làm việc khoa học dữ liệu của nhà phát triển
Red Hat và Intel đang đáp ứng nhu cầu của ngành về một nền tảng dựa trên đám mây được tối ưu hóa cho các hoạt động khoa học dữ liệu và được xây dựng bằng các thành phần nguồn mở. Giải pháp chung của họ kết hợp một giải pháp Intel AI được hỗ trợ bởi API (tức là bộ công cụ Intel® AI Analytics và OpenVINO™), cnvrg.io và Habana Gaudi * được tích hợp vào Red Hat OpenShift AI.
Video về tính bền vững trên nền tảng đám mây
NEC, Intel và Red Hat hợp tác trong các giải pháp 5G nhằm giải quyết các mối quan tâm về tiết kiệm năng lượng và tính bền vững, bên cạnh việc cung cấp các tính năng mới trên quy mô lớn.
Red Hat và công nghệ Intel cho mạng 5G hiện đại
Hiện đại hóa cơ sở hạ tầng của bạn cho 5G với công nghệ Red Hat và Intel đã được chứng minh.
Hệ thống Công nghiệp 4.0
Các Trung tâm Giải pháp Biên Thông minh toàn cầu của Intel và Red Hat là môi trường hợp tác để khách hàng và đối tác cùng phát triển các giải pháp tích hợp nhằm đáp ứng nhu cầu của Edge, AI/ML và các trường hợp sử dụng công nghiệp.
Tăng tốc giao tiếp do phần mềm xác định
Với cách tiếp cận được xác định bằng phần mềm, tăng cường silicon, Red Hat và Intel đang cung cấp các giải pháp chung cho các Nhà cung cấp Dịch vụ để hiện đại hóa mạng.
Darrell Jordan Smith &; Christine Boles | Hội nghị thượng đỉnh Red Hat 2023
Tìm hiểu cách Red Hat cho phép Intel tăng tốc các giải pháp dựa trên phần mềm và chuyển đổi kết quả kinh doanh lớn hơn tại Hội nghị thượng đỉnh Red Hat 2023.
Intel® Developer Cloud dành cho Biên
Bắt đầu ở bất kỳ giai đoạn phát triển biên nào với các ứng dụng suy luận, mô hình học sâu và giải pháp được chứa trong chứa.
Bảo vệ Mạng Thế hệ Tiếp theo cho Khối lượng Công việc Bộ chứa
Sự kết hợp của các khối xây dựng từ Palo Alto Networks, RedHat và Intel giúp cung cấp sự bảo vệ sẵn sàng trong tương lai cho các nhà cung cấp dịch vụ và doanh nghiệp.
Khôi phục thảm họa hiệu suất cho Kubernetes
Intel, Red Hat và Pure Storage cung cấp giải pháp Business Continuity và Disaster Recovery với bộ xử lý Intel Xeon, Kubernetes từ Red Hat OpenShift và phần mềm BCDR mạnh mẽ trong Portworx-DR.
Kiến trúc Tham chiếu Giải pháp Tập trung vào Đám mây Kết hợp 4.11
Tại chỗ hoặc trên đám mây, kiến trúc tham chiếu của Intel cho Nền tảng container Red Hat OpenShift có thể giúp bạn đáp ứng các mục tiêu về hiệu suất, bảo mật và bền vững.
Cơ sở hạ tầng sáng tạo linh hoạt
Intel và Red Hat đang làm việc cùng nhau để tạo ra một cơ sở hạ tầng tạo ra một giải pháp mở xử lý khối lượng dữ liệu lớn một cách dễ dàng để đổi mới nhanh hơn và giữ lợi thế cạnh tranh.
HPC trên Red Hat OpenShift trên AWS sử dụng Intel® Xeon®
Trải nghiệm các lợi ích về hiệu suất và giảm thời gian hoàn thành khối lượng công việc khi bạn triển khai Dịch vụ Red Hat OpenShift trên AWS (ROSA) trên các phiên bản c6i Bộ xử lý có thể mở rộng Intel® Xeon® thế hệthứ
Sử dụng Red Hat Advanced Cluster Management (ACM) cho Kubernetes
Intel và Red Hat đang hợp tác để cung cấp kiến trúc đa đám mây lai cho những khách hàng đang tìm cách tối ưu hóa khối lượng công việc của bên thứ ba tại Biên và các giải pháp đám mây riêng cũng như triển khai đám mây công cộng trên quy mô lớn.
Red Hat OpenShift trên IBM Cloud
Chạy Red Hat OpenShift trên IBM Cloud với bộ xử lý có thể mở rộng Intel® Xeon® thế hệ thứ 4 để chứa và triển khai khối lượng công việc doanh nghiệp trong các cụm Kubernetes.
Dịch vụ Red Hat OpenShift trên AWS (ROSA)
Hiện đại hóa các ứng dụng hiện có và tăng tốc phân phối ứng dụng với Red Hat OpenShift Service on AWS (ROSA) và Intel® Xeon® bộ xử lý có thể mở rộng.
Red Hat OpenShift trên Microsoft Azure
Xây dựng, triển khai và thay đổi quy mô ứng dụng trên các cụm Azure Red Hat OpenShift được hỗ trợ bởi bộ xử lý có thể mở rộng Intel® Xeon®.
Red Hat OpenShift trên Google Cloud
Chạy Red Hat OpenShift trên Google Cloud Platform để xây dựng, triển khai, chạy và quản lý các ứng dụng trong vùng chứa với bộ xử lý có thể mở rộng Intel® Xeon® trong môi trường đám mây lai.
Cloudera: Thông tin chi tiết nhanh hơn, Lợi thế kinh doanh lớn hơn
Cloudera đang hợp tác với Intel &; RedHat để thúc đẩy các đổi mới phân tích và quản lý dữ liệu doanh nghiệp mã nguồn mở. Tập trung vào bảo mật, hiệu suất, quản lý và quản trị, Nền tảng dữ liệu Cloudera được tối ưu hóa để chạy trên các công nghệ Intel®-based nhằm cung cấp sức mạnh và tốc độ cần thiết cho các môi trường điện toán phân tán lớn.
Nội dung gần đây từ Intel và Red Hat Events
Nhận nội dung mới nhất và quan trọng, bao gồm cả thông báo, từ các sự kiện gần đây của Intel và Red Hat.
Khối lượng công việc AI tăng cường Intel và Red Hat
Red Hat OpenShift AI và các công nghệ AI của Intel, bao gồm® bộ tăng tốc Intel Gaudi™ AI, cho phép các tổ chức cung cấp năng lượng cho sự đổi mới AI và máy học trên một nền tảng tích hợp, đáng tin cậy.
Vai trò của hệ điều hành trong kỷ nguyên AI
Các chuyên gia của Intel và Red Hat thảo luận về các nguyên tắc của thiết kế gốc đám mây đối với sự trỗi dậy của Kubernetes và cách các phương pháp tiếp cận hiện đại đối với thiết kế hệ điều hành đang tạo tiền đề cho tương lai do AI thúc đẩy.
Phương pháp tiếp cận đám mây lai của Intel và Red Hat đối với AI
Trong CUBE tại Hội nghị thượng đỉnh Red Hat, các chuyên gia của Intel và Red Hat thảo luận về nền tảng AI doanh nghiệp nguồn mở, các công nghệ chính và cơ hội tham gia của nhà phát triển.
Giải phóng tiềm năng của Intel® IPU với Red Hat OpenShift
Intel và Red Hat đang hợp tác trong một giải pháp tích hợp Intel® IPU với Red Hat OpenShift, thúc đẩy điện toán đám mây và điện toán biên bước vào một kỷ nguyên mới về hiệu suất và khả năng mở rộng.
Các sự kiện sắp tới của Intel và Red Hat
Tham gia các sự kiện trong tương lai
This summit is the premier event for open source developers, technologists, and community leaders to collaborate, share information, solve problems, and gain knowledge, furthering open source innovation and ensuring a sustainable open source ecosystem. It is the gathering place for open source code and community contributors.
June 23–25, 2025; Denver, CO
Rất tiếc, có vẻ như không có sự kiện nào khớp với tìm kiếm của bạn. Hãy thử đổi cài đặt bộ lọc hoặc xóa bộ lọc bằng nút bên dưới.
Xem lại các sự kiện trong quá khứ
Discover the most effective techniques for creating apps—from simple to complex—for AI PCs, including large language models (LLMs). This workshop gives you a solid foundation for understanding Intel® Tiber™ AI Cloud, using Intel® Gaudi® AI accelerators and the Intel® Distribution of OpenVINO™ toolkit for AI models for deploying models on AI PCs. The session will also cover SynapseAI software for Intel Gaudi processors using Python* and PyTorch*.
March 27, 2025, 9:00 a.m.–12:00 p.m. Pacific Standard Time (PST)
Retrieval augmented generation (RAG) is widely recognized as an effective means to empower knowledge workers with low-hallucination results, maximize privacy and security, improve scalability, and foster explainability. Explore the proven techniques for deploying a trusted RAG system versus building a complex, difficult-to-manage approach.
March 26, 2025, 9:00 a.m. Pacific Daylight Time (PDT)
Learn master techniques for building advanced retrieval augmented generation (RAG) applications with Intel® Gaudi® AI accelerators, exploring traditional and agentic methods.
March 20, 2025, 9:00 a.m. Pacific Standard Time (PST)
AI agents add new capabilities for responding intelligently to queries, data collection, and decision-making, assisted by additional functionality from Open Platform for Enterprise AI (OPEA). Retrieval augmented generation (RAG) bolstered by OPEA grants another level to agent design, strengthened by Intel® Gaudi® AI accelerators and Intel® Xeon® processors. This session provides guidance on designing, building, customizing, and deploying AI agents for hierarchical, multiagent systems with greater success than non-agentic generative AI (GenAI) solutions.
March 19, 2025, 9:00 a.m. Pacific Daylight Time (PDT)
See what the latest AI tools from Intel can do to improve your AI development tasks and extend your coding capabilities. Expand the boundaries of the latest optimized models and frameworks driving AI efficiency, boosting scaling, and enhancing generative AI (GenAI) quantization and inference.
March 12, 2025, 9:00 a.m. Pacific Daylight Time (PDT)
Join us for this immersive, hands-on session where you’ll delve into the world of local large language models (LLMs) and discover how to harness their power for retrieval augmented generation (RAG) based AI applications.
March 4, 2025, 9:00 a.m. Pacific Daylight Time (PDT)
Developers will learn how to build local agents for a variety of tasks, including research assistance data management, UI design, and natural language processing tasks. We will focus on laptops equipped with the Intel® Core™ Ultra processor and highlight tips for optimizing high performance and integrating with external sources.
February 27, 2025, 9:00 a.m.–11:00 a.m. Pacific Standard Time (PST)
The combined scalability and efficiency of Intel® hardware and the flexible power of the IBM watsonx* AI portfolio make an ideal platform for gaining the most from retrieval augmented generation (RAG).
February 26, 2025, 9:00 a.m. Pacific Standard Time (PST)
Description: Intel® Gaudi® AI accelerators streamline the creation of generative AI (GenAI) solutions, including deployment and optimization, working with state-of-the-art multimodal models.
February 20, 2025, 9:00 a.m. Pacific Standard Time (PST)
This webinar is with our collaborator, Amazon Web Services (AWS)*. We cover how AWS contributed bedrock and OpenSearch microservices while working with Intel.
February 19, 2025, 9:00 a.m. Pacific Standard Time (PST)
Description: Gain hands-on proficiency using Intel® Gaudi® accelerators, focusing on fine-tuning large language models (LLMs) and optimizing inference techniques.
February 13, 2025, 9:00 a.m. Pacific Standard Time (PST)
AI PCs are increasingly enabling new capabilities for portability and local AI implementations. Learn how the Web Neural Network (WebNN) API is standardizing interactions with CPUs, GPUs, and NPUs to gain optimal performance and predictable behavior.
Febuary 06, 2025, 9:00 a.m.–11:00 a.m. Pacific Standard Time (PST)
Each winning team will present its blue-ribbon project—built, tested, and optimized in the Intel® Tiber™ Developer Cloud using Intel’s latest hardware and AI software optimizations.
December 18, 2024, 9:00 a.m. Pacific Standard Time (PST)
Overcome the challenges of optimizing and deploying large language models on hardware that has limited computational resources.
December 11, 2024, 9:00 a.m. Pacific Standard Time (PST)
Learn how to use the GPU and NPU, in combination with OpenVINO™ toolkit, to develop, optimize, and deploy image-based generative AI (GenAI) models—such as Stable Diffusion and Latent Consistency Models—using multimodal learning.
December 11, 2024, 9:00 a.m. Pacific Standard Time (PST)
This immersive, hands-on session shows you how to harness the power of RAG (retrieval augmented generation) to enhance local large language models (LLMs). You can follow the examples and code using Intel® Tiber™ AI Cloud.
November 21, 2024, 9:00 a.m.–11:00 a.m. Hawaii-Aleutian Standard Time (HST)
Use the Web Neural Network API (WebNN) to achieve near-native AI inference performance and power characteristics from CPU, GPU, and NPU clients through the API’s implementation in Chromium-based browsers such as Chrome* and Edge.
November 20, 2024, 9:00 a.m. Pacific Standard Time (PST)
Discover how to take maximum advantage of the diffusion models with OpenVINO™ toolkit and the enhanced version of the Intel® Tiber™ AI Cloud.
November 14, 2024, 9:00 a.m.–11:00 a.m. Hawaii-Aleutian Standard Time (HST)
Learn how Open Platform for Enterprise AI (OPEA) is driving interoperability across a diverse and heterogeneous ecosystem to accelerate business-ready, secure, cost-effective generative AI (GenAI) deployments.
November 13, 2024, 9:00 a.m. Pacific Standard Time (PST)
This workshop suggests best practices for improving multimodal inference and explores Intel® Gaudi® software capabilities for handling text and image modalities.
November 12, 2024, 9:00 a.m.–11:00 a.m Pacific Standard Time (PST)
Gain hands-on proficiency using Intel® Gaudi® accelerators, focusing on fine-tuning large language models (LLMs) and optimizing inference techniques.
November 5, 2024, 9:00 a.m.–11:00 a.m. Pacific Standard Time (PST)
This workshop is a detailed look into generative AI on the new era of AI PC. Learn how to use AI acceleration capabilities for generative AI (GenAI) across CPUs, GPUs, and NPUs. Designed for developers, this session is a comprehensive overview of using GPUs and NPUs for image-based generative AI and using the OpenVINO™ toolkit to optimize the implementation and deployment of AI models such as Stable Diffusion*, latent consistency models, and more.
October 23, 2024, 10:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
Discover effective techniques for harnessing Hugging Face* tools to unlock the power of AI PCs.
September 26, 2024, 9:00 a.m.–11:00 a.m. Pacific daylight time (PDT)
Bringing AI Everywhere, the Intel AI Summit series brings the future of AI to developers with hands-on technical training, thought leadership, and connection to industry peers. Learn how Intel’s software and hardware portfolios can help power your AI solutions and accelerate your AI journey at scale.
Location: Paris, France
Date: Tuesday, September 17, 2024
Time: 16:00 - 21:00 CET
OpenVINO™ toolkit excels at optimizing Open Neural Network Exchange (ONNX) models, making it an ideal tool for coaxing the best behavior from a heterogeneous network, including operations involving multithreading inference, model quantization, and graph partitioning.
September 11, 2024, 11:00 a.m. Pacific daylight time (PDT)
Discover effective techniques for deploying LLMs to AI PCs and achieving top performance. Using LLMs as a model for building GenAI solutions, this session explains NPU architecture, the significance of LLMs, and the use of the Intel® NPU Acceleration Library.
September 11, 2024, 9:00 a.m. Pacific daylight time (PDT)
Learn the essential techniques to use with Intel® Gaudi® AI accelerators to balance distributed AI workloads, meet data center challenges, and improve advances in efficiency and performance.
September 4, 2024, 9:00 a.m. Pacific daylight time (PDT)
Explore the deployment of large language models (LLM). Learn about the practicality and advantages of client PCs and small form-factor machines at the edge with a focus on implementing a conversational voice agent. Delve into the process of efficiently deploying LLMs on resource-constrained devices by examining techniques such as quantization and optimization through the OpenVINO™ toolkit. Additionally, watch how a user-friendly interface built with Gradio can enhance the agent's accessibility and usability.
August 29, 2024, 10:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
Put Intel® Gaudi® 2 AI accelerator through its paces, streamlining training and inference and enhancing generative AI (GenAI) integration and deployment.
August 28, 2024, 9:00 a.m. Pacific daylight time (PDT)
Bringing AI Everywhere, the Intel AI Summit series brings the future of AI to developers with hands-on technical training, thought leadership, and connection to industry peers. Learn how Intel’s software and hardware portfolios can help power your AI solutions and accelerate your AI journey at scale.
Location: Toronto, Ontario
Date: Thursday August 22, 2024
Time: 1:00 PM - 5:00 PM EDT
Tune and optimize AI applications on Intel® hardware.
August 22, 2024, 9:00 a.m.–11:00 a.m. Pacific daylight time (PDT)
Get in-depth performance insights for deep learning model–based applications targeting CPU, GPU, and NPU.
August 14, 2024, 9:00 a.m. Pacific daylight time (PDT)
Join us to learn how Hugging Face and its Optimum for Intel are shaping the future of generative AI (GenAI) by simplifying and optimizing AI inference through the Transformers library.
With just five lines of code, you can now achieve efficient and flexible GenAI. A how-to session will showcase our fundamental efforts in 2023 by bringing optimized workloads such as Stable Diffusion*, large language models, and audio transcription models to the AI developer community.
July 31, 2024, 10:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
Learn the best practices and tools for building high-performance generative AI applications on budget-friendly Intel® GPUs.
July 31, 2024, 9:00 a.m. Pacific daylight time (PDT)
Learn strategies for implementing a RAG system capable of transforming vast amounts of data into accessible, relevant, and accurate results.
July 10, 2024, 9:00 a.m. Pacific daylight time (PDT)
Learn how to build computer vision and anomaly detection applications for AI inference solutions. Use the open source Anomalib library for unsupervised learning with imbalanced datasets to handle rare defects in real time. Improve quality control in manufacturing, healthcare, agriculture, and more. See a robot in action. Get a recap of the Visual Anomaly and Novelty Detection (VAND) 2.0 challenge at the Computer Vision and Pattern Recognition Conference (CVPR).
June 27, 2024, 10:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
This workshop explores ways to use the Intel® Tiber™ Developer Cloud to examine the Diffusers library for pretrained diffusion models for multi-model, generative AI.
June 25, 2024, 9:00 a.m.–11:00 a.m. Pacific daylight time (PDT)
This workshop demystifies Intel® NPUs, providing examples with large language models (LLMs) and case studies. The fundamental architecture of NPUs is explained and the capabilities of the technology revealed, offering a clear picture of the role of neural processors in an AI system and the acceleration benefits.
June 24, 2024, 9:00 a.m.–11:00 a.m. Pacific daylight time (PDT)
Build AI solutions with the Intel® Tiber™ Developer Cloud using the latest Intel hardware and software.
June 20, 2024, 9:00 a.m.–11:00 a.m. Pacific daylight time (PDT)
Dive into the new era of AI PCs with their unique AI acceleration capabilities that span across CPUs, GPUs, and NPUs. This session provides a comprehensive overview of using the NPU for AI inference tasks and uses OpenVINO™ toolkit to optimize the implementation and deployment of AI applications. Experience live demos showcasing the performance and power efficiency of AI applications on the AI PC. Learn how to use OpenVINO toolkit to optimize hardware use for AI inference, enhancing the efficiency and innovative potential of their AI projects.
May 23, 2024, 10:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
Learn how to significantly enhance LLM performance on Intel® platforms by taking advantage of the features of two powerful Intel-optimized libraries.
May 8, 2024, 9:00 a.m. Pacific daylight time (PDT)
In this workshop, we’ll discuss intriguing new dilemmas in the generative AI (GenAI) space: Will large language models (LLM) fit on small form-factor machines? Smaller LMs versus LLMs? Where is the sweet spot for local inference? We’ll discuss the era of LLM compression, including int8, int4, and 1-bit LLM models, and how it can be more effective to work on complex deep learning models and big data processing with GPUs, NPUs, and CPUs.
April 30, 2024, 10:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
Find out how this company used the Intel® AI software portfolio of ready-to-use reference kits to optimally uncover the right customers at the right time.
April 24, 2024, 9:00 a.m. Pacific daylight time (PDT)
Join AI experts from Landing AI and Intel Labs to learn how to minimize bias and hallucinations in multimodal large language models (LLM) that can handle diverse data types.
April 23, 2024, 10:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
How can a retail business adopt generative AI to accelerate its growth? Join e.l.f.* Beauty and Iterate.a*i to learn how a low-code AI platform can quickly deploy large language models (LLM) to transform a retail business and improve customer engagement and revenue.
What you will learn:
- The good and the bad—the reality of generative AI for retail.
- How to choose the right generative AI initiatives for impactful outcomes.
- Best practices on how to build and deploy LLMs.
- Retrieval augmented generation (RAG) and LLMs in action for social media.
Speakers:
- Brian Sathianathan, cofounder and CTO of Iterate.ai
- Ekta Chopra, chief digital officer, e.l.f. Beauty
March 27, 2024, 10:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
Learn how to fine-tune the nanoGPT model on a cluster of CPUs on Google Cloud Platform* service using an Intel® Optimized Cloud Module.
March 27, 2024, 9:00 a.m. Pacific standard time (PST)
Discover the full capabilities of Intel® Developer Cloud for working with large language models (LLM) and Stable Diffusion* models.
March 14, 2024, 9:00 a.m.-11:00 a.m. Pacific daylight time (PDT)
Learn how to access a cluster of the latest Intel® hardware through Intel’s brand-new cloud platform–Intel® Developer Cloud–to accelerate and scale an AI and HPC application workload. You will be able to access free training content on JupyterLab, launch instances from the Intel Developer Cloud console, and access instances via SSH. Attendees will also receive a free coupon for evaluating the platform.
February 28, 2024, 1:30 p.m.-2:30 p.m. Japan standard time (JST)
Join this webinar to hear Accenture* share best practices, considerations, and architectures for constructing a self-managed Generative AI (GenAI) platform capable of hosting a myriad of applications.
February 22, 2024, 10:00 a.m.–11:00 a.m. Pacific standard time (PST)
Get an insider’s view of the 2024.0 release, plus engage in a live Q&A with Intel® software experts.
February 21, 2024, 9:00 a.m. Pacific standard time (PST)
Learn how to take advantage of Intel®-optimized machine learning and deep learning frameworks and libraries—PyTorch*, TensorFlow*, scikit-learn*, and XGBoost—in the popular CSP platform.
February 14, 2024, 9:00 a.m. Pacific standard time (PST)
Hugging Face* APIs let you optimize AI routines for Intel® hardware.
January 30, 2024, 9:00 a.m. – 11:00 a.m. Pacific standard time (PST)
Speed up tasks such as data preprocessing at scale, training, and inference while gaining performance.
January 24, 2024, 9:00 a.m. Pacific standard time (PST)
Join Intel at numerous locations at the CES show in January.
January 7-10, 2024, 8:00 a.m. Pacific standard time (PST)
Learn how to build secure, scalable, and accelerated Kubeflow* pipelines on an Azure* Kubernetes* Service (AKS) cluster.
December 13, 2023, 9:00 a.m. Pacific standard time (PST)
Learn how to accelerate GenAI* for the enterprise with small and nimble models. This webinar evaluates open source large language models (LLM) and how to move from a nimble to a fully adapted model.
December 7, 2023, 10:00 a.m. – 11:00 a.m. Pacific Standard Time (PST)
Get an introduction to five AI reference solutions that are tailor-made to solve business problems across a variety of industries, delivering higher accuracy and better performance while decreasing development cycles.
December 6, 2023, 9:00 a.m. Pacific standard time (PST)
Visit the Intel display in booth 617 at the international conference for high-performance computing (HPC), networking, storage, and analysis.
November 12-17, 2023, 9:00 a.m. - 5:00 p.m. mountain standard time (MST)
Learn how to embed large language models (LLMs) into your workflows for generative AI. This webinar covers guiding principles domain-specific use cases, architectural approaches, and common challenges.
November 9, 2023, 10:00 a.m. - 11:00 a.m. Pacific standard time (PST)
Elevate your skills for optimizing AI systems using MLOps components and practices.
November 7, 2023
9:00 am - 11:00 am PST
Explore how pairing MLOps components and AI optimizations can transform your AI systems from legacy to being performant, scalable, and efficient across every step of a production AI system’s lifecycle.
November 1, 2023, 9:00 a.m. Pacific Standard Time (PST)
Speed up, scale, and efficiently manage your cloud-based machine learning workloads for less cost and more resource use with a new solution from Intel and Microsoft.
October 18, 2023, 9:00 a.m. Pacific daylight time (PDT)
Engage with your peers and learn from the brightest minds in the industry how to use breakthroughs in hardware, software, services, and advanced technologies to speed development, drive innovation, and help hone your competitive edge.
September 19-20, 2023, 9:00 a.m. Pacific daylight time (PDT)
Learn how to use the latest TensorFlow* optimizations from Intel to get more out of your AI workloads on Intel® hardware.
September 13, 2023, 9:00 a.m. Pacific daylight time (PDT)
Learn what an FPGA is and its basic features. Get a description of the development flow for an FPGA design. You will use a remote computer connected through VMware* Lab Platform for labs. No set up is needed.
September 11, 2023, 9:00 a.m.-1:30 p.m. central European time (CET)
Join a step-by-step tutorial on creating an intelligent retail queue-management system using the OpenVINO™ toolkit and YOLO* v8. Learn the process of integrating these powerful open source tools to develop an end-to-end solution that can be deployed in retail checkout environments.
August 22, 2023, 9:00 a.m.-10:00 a.m. Pacific daylight time (PDT)
Join us for multiple days of discovery and inspiration. Renowned industry experts will demystify the latest AI and oneAPI technologies, tools, trends, and techniques.
August 18, 2023, 9:00 a.m.-10:30 a.m. central daylight time (CDT): Onboarding day
August 21, 2023, 9:00 a.m.-5:30 p.m. CDT: Day 1
August 22, 2023, 9:00 a.m. -12:30 p.m. CDT: Day 2
Explore different types of quantization techniques that can be applied to deep learning models. Get an overview of the Neural Network Compression Framework (NNCF) and how it complements the OpenVINO™ toolkit to achieve outstanding performance.
July 25, 2023, 9:00 a.m.-10:00 a.m., Pacific daylight time (PDT)
The field of generative AI is rapidly advancing, bringing with it potential applications that could fundamentally alter the future of human-computer interactions and collaborations. This workshop delves into transformer models, including Stable Diffusions and Generative Pretrained Transformers (GPT), and explores how these models are optimized to run on Intel’s variety of hardware. We’ll also take a look at Jupyter* Notebook tutorials that you can run on your own machine, providing hands-on experience with these powerful tools.
June 28, 2023, 9:00 a.m.-10:00 a.m. Pacific daylight time (PDT)
Learn about the final set of open source AI reference kits, purpose-built to help you overcome the challenges of AI acceleration along the development pipeline.
June 14, 2023, 9:00 a.m. Pacific daylight time (PDT)
This virtual community conference is focused on technical talks and workshops that highlight the capabilities of the oneAPI tools and motivate you to start building your own oneAPI projects.
June 13, 2023, 9:00 a.m.-5:00 p.m. central daylight time (CDT)
OpenVINO™ Toolkit's newest release, 2023.0, marks a significant milestone for its five-year anniversary. Hear rare insights from the past and present about the toolkit's evolution from the individual behind the product: Yury Gorbachev, Intel Fellow, OpenVINO Product Architecture. Get highlights of what’s new in the release including: More integrations (like TensorFlow* and PyTorch* front ends), expanded model support (such as Segment Anything, GPT-J, and YOLO v8)*, and gaining efficiencies on CPUs with thread scheduling.
May 31, 2023: 9:00 a.m.-10:00 a.m. Pacific daylight time (PDT)
Intel is a sponsor for this event that features high-performance computing (HPC), machine learning, data analytics, and quantum computing. It’s in-person in Hamburg, Germany.
May 21-25, 2023, 8:00 a.m.-6:00 p.m. Central European time (CET)
In this workshop, learn how to migrate code in C++ to SYCL for simple data analytics and machine learning workloads.
April 27, 2023, 3:00 p.m. to 5:00 p.m. India Standard Time (IST)
This workshop gives a basic understanding of Intel® oneAPI Deep Neural Network Library (oneDNN) and Intel® oneAPI Data Analytics Library (oneDAL), and includes a quick hands-on session to offer participants experience in implementing and optimizing neural networks using these libraries.
April 19, 2023, 5:00 p.m. to 7:00 p.m. India Standard Time (IST)
Tailor your approach to developing efficient AI solutions with accelerated machine learning.
February 9, 2023, 9:00 a.m.-11:00 a.m. Pacific standard time (PST)
Sign up to learn how the growing collection of open source reference kits for Intel® AI can kick-start an increasing array of AI solutions, whether you’re a small shop or a global organization.
Start on Building Performant AI Solutions Quickly
Wednesday, January 25, 2023, 9:00 a.m. Pacific standard time (PST)
Speed up deep learning workload performance on Intel® CPUs and GPUs using Model Zoo optimized inference applications and the Intel® Extension for TensorFlow*, and then analyze and debug the results.
December 14, 2022, 5:00 p.m. Indian standard time (IST)
This innovative workshop guides you through the AI techniques to create a likelihood map for discovering dinosaur bones in different locations. Explore machine learning algorithms powered by Intel® oneAPI software, including Intel® Extension for Scikit-learn*, NumPy, and Intel® Distribution of OpenVINO™ toolkit.
November 29, 2022, 9:00 a.m.-11:00 a.m. Pacific standard time (PST)
This is an multiphased, open event that runs from November 15, 2022, through February 19, 2023.
- Phase 1: Idea Submission (November 15, 2022, 6:00 p.m. to January 15, 2023, 11:59 p.m. Indian standard time (IST)
- Phase 2: Prototype Submission (February 3, 2023, 6:00 p.m. to February 19, 2023, 11:59 p.m. (IST)
Join on your own, create a team, or join another team (maximum of five members per team). Sharpen your development skills and showcase your work. Learn with Intel experts on machine learning, computer vision, and oneAPI open social innovation. You also have a chance to win fantastic prizes.
Learn about open source AI reference kits that are purpose-built to help you overcome the challenges of AI acceleration along the development pipeline.
November 9, 2022, 9:00 a.m. Pacific daylight time (PDT)
TensorFlow* developers can learn strategies for identifying and fixing the parts of compute-intensive AI workloads that cause performance bottlenecks.
November 2, 2022, 9:00 a.m. Pacific daylight time (PDT)
Get near-native speed from your AI and data science workloads—even in accelerated computing environments—with minimal code changes.
October 26, 2022, 9:00 a.m., Pacific daylight time (PDT)
Join a virtual conference that's focused on AI, oneAPI, and SYCL* for accelerated computing across xPU architectures. Learn from leading industry and academia speakers who innovate new oneAPI solutions for cross-platform, multivendor architecture.
October 26-27, 2022 2:00 p.m. - 5:00 p.m. Japan standard time (JST)
Get hands-on experience using the Intel® AI Analytics Toolkit to explore predictive modeling techniques based on decision trees. Take popular decision-tree algorithms (used for regression and classification tasks) and address the challenge of handling training when data sizes increase.
June 30, 9:00 a.m.-11:00 a.m. (PDT)
Venture deeper into effective methods to accelerate machine-learning workloads. Uncover new way to harness the K-means and GPairs algorithms.
June 23, 9:00 a.m. (PDT)
Use the Intel® oneAPI AI Analytics Toolkit to discover efficient methods for implementing these algorithms.
June 21, 9:00 a.m. (PDT)
Find out how using low-precision techniques with Intel® Neural Compressor not only speed up model post-training but also preserve accuracy and performance.
Wednesday, June 8, 2022, 9:00 a.m. (PDT)
Attend a day of hands-on tutorials, tech talks, and a panel focused on high-performance computing (HPC) and AI workloads developed on oneAPI.
Friday, May 27, 9:00 a.m.-6:00 p.m. (CET)
Join this exciting, new educational technology event series for developers and industry insiders, and immerse yourself in the latest trends and technologies to deliver AI, 5G, edge, cloud, and PC solutions with speed and real-world scale. Connect with Intel leaders and industry experts to gain the perspectives and training required to shift what’s possible through technology—today and tomorrow.
Rất tiếc, có vẻ như không có sự kiện nào khớp với tìm kiếm của bạn. Hãy thử đổi cài đặt bộ lọc hoặc xóa bộ lọc bằng nút bên dưới.
Tiếp tục hành trình Red Hat của bạn
Khám phá các tài nguyên Red Hat bổ sung.
Trang chủ Đối tác Red Hat
Truy cập trang chủ Intel® trên trang web của Red Hat để tìm hiểu thêm về quan hệ đối tác giữa Intel và Red Hat.
Tài nguyên dành cho nhà phát triển AI từ Intel và Red Hat
Cho phép các ứng dụng AI sử dụng Công cụ Intel® AI và nền tảng Red Hat OpenShift AI.
Intel và Red Hat Telco/Edge Resource Center
Xem cách Intel® và Red Hat tăng tốc giao tiếp dựa trên phần mềm.
Công nghệ Intel® kích hoạt OpenShift
Xem kho lưu trữ GitHub cho Công nghệ Intel® Kích hoạt OpenShift.