Nvidia

Percorsi di certificazione NVIDIA per studenti  (Deep Learning Institute)

La nostra scuola fa parte del programma educativo dell’ Istituto di Deep Learning NVIDIA, che offre risorse per esigenze di apprendimento diversificate, dai materiali didattici alla formazione autonoma e dal vivo, fino ai programmi per educatori. Individui, team, organizzazioni, educatori e studenti possono ora trovare tutto ciò di cui hanno bisogno per avanzare nella loro conoscenza dell'intelligenza artificiale, del calcolo accelerato, della data science accelerata, della grafica e della simulazione, e altro ancora.

I kit didattici NVIDIA, in particolare, includono l'accesso gratuito ai corsi online DLI, con un valore fino a 90 dollari per studente per corso. La formazione DLI rafforza i concetti di deep learning, data science e calcolo accelerato presentati nei kit didattici e insegna agli studenti come applicare tali concetti a progetti completi.

Ogni corso offre un ambiente di apprendimento a ritmo autonomo con accesso a una workstation accelerata da GPU nel cloud.

Certificazioni: gli studenti possono ottenere certificazioni che dimostrano la competenza nelle materie trattate, utile per la crescita professionale. Molti studenti del corso di informatica hanno già ottenuto le certificazioni in ambito di Accelerated Computing, Deep Learning, Graphics and Simulation

 

NVIDIA Inference Microservices (NIM)

Inoltre i docenti di informatica della scuola sono riconosciuti come NVIDIA NIM Developer , ottenendo quindi diritti per l’utilizzo delle potenti librerie NVIDIA.
NVIDIA NIM™, parte di NVIDIA AI Enterprise, fornisce container per l'hosting autonomo di microservizi di inferenza accelerati da GPU per modelli di intelligenza artificiale pre-addestrati e personalizzati su cloud, data center e workstation. Con una singola riga di comando al momento del deployment, i microservizi NIM espongono API standard del settore per una semplice integrazione nelle applicazioni AI, nei framework di sviluppo e nei flussi di lavoro. Basati su motori di inferenza pre-ottimizzati di NVIDIA e della comunità, tra cui NVIDIA® TensorRT™ e TensorRT-LLM, i microservizi NIM ottimizzano automaticamente la latenza di risposta e il throughput per ogni combinazione di modello base e sistema GPU rilevato in fase di esecuzione. I container NIM offrono inoltre feed standard di dati di osservabilità e supporto integrato per l'auto-scalabilità su Kubernetes con GPU.