Migrating CUDA Applications to Chinese GPU Architectures Training Course
Χινέζικες GPU αρχιτεκτονικές όπως Huawei Ascend, Biren και Cambricon MLUs παρέχουν εναλλακτικές λύσεις για το CUDA, τυγχάνοντας ιδιαίτερης συμπλήρωσης για την αυτόματη εξελίξη (AI) και τους τομείς υψηλών πERFORMANCE computing (HPC) στην οικογένεια.
Αυτή η διδασκαλία, με επικοινωνία του εκπαιδεύτη (δια παραλλαγής ή σε υπερθέση), είναι απευθείας διευθετημάτων του GPU προγραμματιστών και ειδικών υπολογιστικών πόρων με ανάγκη να μεταφέρουν και βελτιώσουν τα οντικά CUDA εφαρμογές για τη δημοσίευση σε χινέζικους πίνακες hardware.
Με τέλος αυτής της εκπαίδευσης, οι συμμετέχοντες θα μπορούν να:
- Αξιολογήσουν την παραθέση των ακόμα CUDA εργαζομένων με χινέζικα αντικείμενα άλλων.
- Μετάφερουν κώδικα CUDA πλατφόρμες στο Huawei CANN, Biren SDK και την περιβάλλον Cambricon BANGPy.
- Ελέγχουν τη δύναμη και εντοπίζουν βελτιστοποίηση σημεία μεταξύ πλατφόρμων.
- Αντιμετωπίζουν πρακτικά προβλήματα και υποστήριξη cross-architecture και έγκριση.
Εργασιακό σχεδιασμός του δίδασκαλ
- Δυναμική εξήγηση και συζήτηση.
- Προσωπικά μεταφοράς κώδικα και αντίθεση δυναμικό που εργασία labs.
- Οδηγούμενες άσκησης συγκεντρωμένη για τη χρήση πολλών GPU αποδοχή στρατηγικές.
Επιλογές Προσωπικοποίησης του δίδασκαλ
- Για να απαιτήσετε μια προσωπικοποιημένη εξυπηρέτηση για το δίδασκαλ βάσεις στην ηχεία σας ή CUDA project, παρακαλώ αποφασίστε μας να εγκαθιδρύσετε.
Course Outline
Παραδομένα του Εкосυστήματος της κινεζικής GPU AI
- Σύγκριση των Huawei Ascend, Biren, Cambricon MLU
- CUDA vs CANN, Biren SDK και BANGPy μοντέλα
- Τάσεις του παραγωγικού κλάδου και εкосυστήματα προμηθευτών
Προετοιμασία για Μετάφραση
- Αξιολόγηση της CUDA κώδικα πλαισίωσης σας
- Ανίχνευση στόχο πλατφόρμα εννοια και SDK έκδοσης
- Εγκατάσταση του εργαλείων αλυσίδας και ρύθμιση περιβάλλοντος
Τεχνικές Μετάφρασης Κώδικα
- Μετάφραση CUDA μνήμη πρόσβαση και πυρήνων λογικής
- Ταξίνομηση υπολογιστικών δικτύων/θέσεων ενότητα μοντέλων
- Αυτόματη προς τεχνική υποδοχή προσβάσεις
Πλατφόρμα-Ειδικές Ολοκληρώσεις
- Χρήση Huawei CANN λειτουργίες και προσαρμοσμένων πυρήνων
- Biren SDK μετάφραση αλύσιδα
- Επανακατασκευή μοντέλων με BANGPy (Cambricon)
Cross-Πλατφόρμα Εγκατάσταση και Oптимизация
- Συμπεριφορά προφίλ σε κάθε στόχο πλατφόρμα
- Tuning μνήμης και παράλληλη εκτέλεση συγκρισηών
- Ακολουθία απόδοσης και έρευνη
Διαχείριση Μίξεων GPU Περιβάλλοντων
- Υποδοιπούλικες εγκαταστάσεις με πολλαπλές αρχιτεκτονίες
- Επιπρόσθετα στρατηγικές και ενότητα ανίχνευσης
- Αφάνες διαμόρφωσε πλεξήρες για διατηρησιμότητα κώδικα
Περίπτωσης Συνειδητοποίησης και Πρακτικές Τεχνικές
- Μετάφραση νόημα/NLP μοντέλων στο Ascend ή Cambricon
- Retrofitting παραγώγικου πιπέλς στο Biren αθροίσματα
- Χειρισμός τύπων μιας ομοιότητα και API χάσεις
Επέκταση και Επόμενα Βήματα
Requirements
- Εμπειρία προγραμματισμού με CUDA ή εφαρμογές βασισμένες στο GPU
- Συνειδητοποίηση των μοντέλων μνήμης και υπολογιστικών πυρήνων του GPU
- Γνώση των διαδικασιών εγκατάστασης ή επεξάργυρισης AI μο델
Δημόσιο
- Προγραμματιστές GPU
- Αρχιτεκτόνες συστήματος
- Ειδικοί μετάφρασης
Open Training Courses require 5+ participants.
Migrating CUDA Applications to Chinese GPU Architectures Training Course - Booking
Migrating CUDA Applications to Chinese GPU Architectures Training Course - Enquiry
Migrating CUDA Applications to Chinese GPU Architectures - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses
Related Courses
Developing AI Applications with Huawei Ascend and CANN
21 HoursHuawei Ascend είναι μια οικογένεια AI προσταθμών σχεδιασμένων για υψηλή επίδοση αποδοχής και εκπαίδευσης.
Αυτό το εξ οργάνου διδασκαλία (διαδικτύου ή σε χώρο) προσβάσιμο είναι για μεσαίων επιπέδου AI μηχανικούς και δεδομένων επιστήμονες που θέλουν να αναπτύξουν και να τροποποιήσουν νευρωνικά δίκτυα μοντέλων χρησιμοποιώντας το πλατφόρμα Huawei’s Ascend και το toolkit CANN.
Στο τέλος αυτής της διδασκαλίας, οι συμμετέχοντες θα μπορούν να:
- Εγκαταστήσουν και ρυθμίσουν το περιβάλλον ανάπτυξης CANN.
- Αναπτύξουν AI εφαρμογές χρησιμοποιώντας MindSpore και CloudMatrix διαδικασίες.
- Τροποποιήσουν την επίδοση στου Ascend NPUs χρησιμοποιώντας προσαρμοστικά αποδείξεις και tiling.
- Αντικαταστήσουν τα μοντέλα σε edge ή cloud περιβάλλοντα.
Σχήμα της διδασκαλίας
- Επικοινωνητικό μάθημα και συζήτηση.
- Χειρότεχνη χρήση Huawei Ascend και CANN toolkit σε δείγματα εφαρμογών.
- Οδηγημένες ασκήσεις που επικεντρώνονται στην κατασκευή, εκπαίδευση, και ρύθμιση μοντέλων.
Προσαρμογή της διδασκαλίας
- Για να ζητήσετε προσαρμοστική εκπαίδευση για αυτό το μάθημα βασισμένο στην υποδομή ή δεδομένα σας, παρακαλώ επικοινωνήστε μαζί μας για να καθορίσετε.
Deploying AI Models with CANN and Ascend AI Processors
14 HoursCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Inference and Deployment with CloudMatrix
21 HoursCloudMatrix είναι η αποτελεσματική πλατφόρμα ανάπτυξης και εγκατάστασης AI της Huawei, σχεδιασμένη για να υποστηρίζει μεγάλες κλίμακες παραγωγικών διαδικασιών επεξεργασίας συμπερασμάτων.
Αυτή η εκπαιδευτική εκπόνηση (διαπολιτισμική ή προσωπική) στοχεύει σε αναφορικούς και μέσου επιπέδου ειδικευμένους στην AI, οι οποίοι επιθυμούν να εγκαταστήσουν και να διαφυλάξουν μοντέλα AI χρησιμοποιώντας την πλατφόρμα CloudMatrix με ενσωμάτωση CANN και MindSpore.
Στο τέλος αυτής της εκπαίδευσης, οι συμμετέχοντες θα μπορούν να:
- Χρησιμοποιήσουν το CloudMatrix για πακέτο, εγκατάσταση και υπηρεσία μοντέλων.
- Μετατρέψουν και βελτιώσουν τα μοντέλα για τα Ascend chipsets.
- Εγκαταστήσουν διαδίκτυα για υπηρεσίες επεξεργασίας συμπερασμάτων πραγματικού χρόνου και μέρους.
- Στοχεύουν τις εγκαταστάσεις και βελτιώνουν την απόδοση σε παραγωγικές ρυθμίσεις.
Σχήμα της Εκπαίδευσης
- Ενεργοποιημένη μάθηση και συζήτηση.
- Πρακτική χρήση του CloudMatrix με πραγματικά σενάρια εγκατάστασης.
- Εξοπλισμένες ασκήσεις που καθοδηγούνται με έphasis στη μετατροπή, τη βελτίωση και την επέκταση.
Επιλογές Προσαρμογής της Εκπαίδευσης
- Για να αιτηθεί μια προσωπικοποιημένη εκπαίδευση για αυτή την ομάδα βάσει της AI υποδομής σας ή του κλειδώματός σας, παρακαλώ επικοινωνήστε μαζί μας για να διοργανώσετε.
GPU Programming on Biren AI Accelerators
21 HoursΟι Biren AI Accelerators είναι υψηλής επέκτασης GPUs που σχεδιάστηκαν για λειτουργίες AI και HPC με υποστήριξη για μεγάλη κλίμακα εκπαίδευσης και αποδοχή.
Αυτό το ζωντανό διδασκαλία (διαδικτύου ή σε χώρο) είναι προσανατολισμένο σε ανάπτυξη μεταξύ κεντρικής και προχωρημένης επίπεδου που θέλουν να πρόγραμμα και τεκμηριώσουν εφαρμογές χρησιμοποιώντας το δικτύωμα GPU αυτοχειρεία Biren, με πρακτικά συγκριματικά CUDA-based περιβάλλοντα.
Μέχρι το τέλος αυτής της εκπαίδευσης, οι συμμετέχοντες θα μπορούν να:
- Συνειδητοποιήσουν την αρχιτεκτονική Biren GPU και την ιεραρχία μνήμης.
- Εγκαταστήσουν το περιβάλλον ανάπτυξης και να χρησιμοποιήσουν το μοντέλο προγραμματισμού Biren.
- Μεταφράσουν και τεκμηριώσουν CUDA-style κώδικα για πλατφόρμες Biren.
- Εφαρμόσουν τεχνικές επιτάχυνσης και αποκατάστασης.
Σχήμα της Εκπαίδευσης
- Εργαλειώδεις διαλέξεις και συζητήσεις.
- Πρακτική χρήση Biren SDK σε παραδείγματα GPU λειτουργιών.
- Οδηγούμενες ασκήσεις με κέντρο την μετάφραση και επιτάχυνση παραγωγικότητας.
Επιλογές Προσαρμογής της Εκπαίδευσης
- Για να αιτηθεί μια προσαρμοσμένη εκπαίδευση για αυτή την ομάδα βασισμένη στο δικό σας δικτύωμα εφαρμογών ή χρεώσεις κλίμακας, παρακαλώ επικοινωνήστε μαζί μας για να διορθωθεί.
Cambricon MLU Development with BANGPy and Neuware
21 HoursΟι Cambricon MLUs (Machine Learning Units) είναι ειδικοποιημένα AI χιπ που οργανωθήκανε για συμπεράσματα και εκπαίδευση σε περιπτώσεις edge και datacenter.
Αυτό το ζωντανό διδασκαλικό μάθημα (online ή live) είναι προσανατολισμένο σε μεσαίου επίπεδου αναπτυξτές που θέλουν να κατασκευάσουν και να εγκαταστήσουν AI μοντέλα χρησιμοποιώντας το πλαίσιο BANGPy και Neuware SDK στο Cambricon MLU hardware.
Στο τέλος αυτής της εκπαίδευσης, οι συμμετέχοντες θα μπορέσουν να:
- Εγκαταστήσουν και ρυθμίσουν τα περιβάλλοντα ανάπτυξης BANGPy και Neuware.
- Αναπτύξουν και βελτιώσουν μοντέλα βασισμένα στο Python και C++ για Cambricon MLUs.
- Εγκαταστήσουν τα μοντέλα σε edge και data center εξόδια που λειτουργούν με Neuware runtime.
- Συμβάλλουν στην ολοκλήρωση ML workflows με χαρακτηριστικά επιτάχυνσης που είναι κυριότερα για το MLU.
Μορφή του μαθήματος
- Επικοινωνητική ομιλία και συζήτηση.
- Πρακτική χρήση του BANGPy και Neuware για ανάπτυξη και εγκατάσταση.
- Οδηγούμενες ασκήσεις που συγκεντρώνονται στη βελτίωση, ολοκλήρωση και δοκιμή.
Προεπιλεγμένες επιλογές μαθήματος
- Για να ζητήσετε προσαρμοσμένη εκπαίδευση για αυτό το μάθημα βασισμένη στο Cambricon device model ή χρήση, καταλάβετε παρακαλώ να επικοινωνήσετε μαζί μας για τη διάρθρωση.
Introduction to CANN for AI Framework Developers
7 HoursCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 HoursHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HoursHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 HoursCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 HoursThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 HoursCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Performance Optimization on Ascend, Biren, and Cambricon
21 HoursAscend, Biren και Cambricon είναι οι προηγμένες πλατφόρμες υλικού για τα μηχανικά νοημοσύνης στην Κίνα, κάθε μία επιφέροντας υπερβολική αcceleration και εργαλεία προφιλαρχικής για παραγωγικά μηχανικά νοημοσύνης λειτουργίες.
Αυτό το επανδρωμένο κλάση (διαμαρτυρία ή γνωστή) στόχο είναι ανώτερο επίπεδο AI υφιστάμενος και δημιουργία μηχανικά μηχανικές που θέλουν να βελτιωθούν επιπέδου model inference και training workflows σε πολλαπλά Chinese AI χιπ πλατφόρμες.
Στο τέλος αυτής της εκπαίδευση, οι συμμετέχοντες θα μπορούν να:
- Benchmark models σε Ascend, Biren και Cambricon πλατφόρμες.
- Αναγνωρίζουν τις συστήματος bottlenecks και memory/compute αδυνάμειες.
- Εφαρμόζει graph-level, kernel-level, και operator-level βελτιώσεις.
- Tune εγκατάσταση pipelines για να βελτιωθούν throughput και latency.
Δομή του Κλάση
- Επικοινωνητικός διάλογος και συζήτηση.
- Χερσαία χρήση του προφιλαρχικών και βελτιωτικών εργαλείων σε κάθε πλατφόρμα.
- Οδηγημένες ασκήσεις με κέντρο του πρακτική tuning περιστάσεις.
Προσαρμοστικό Διδακτικό Υλικό
- Για να απαιτήσετε μια προσαρμοστική εκπαίδευση για αυτή την ομάδα βασισμένη στο performance περιβάλλον και μοντέλου type, παρακαλώ επικοινωνήστε μαζί μας για να το διατάξετε.