İçerik PyTorch, Edward Yang, and Team PyTorch tarafından sağlanmıştır. Bölümler, grafikler ve podcast açıklamaları dahil tüm podcast içeriği doğrudan PyTorch, Edward Yang, and Team PyTorch veya podcast platform ortağı tarafından yüklenir ve sağlanır. Birinin telif hakkıyla korunan çalışmanızı izniniz olmadan kullandığını düşünüyorsanız burada https://tr.player.fm/legal özetlenen süreci takip edebilirsiniz.
Player FM - Podcast Uygulaması
Player FM uygulamasıyla çevrimdışı Player FM !
Player FM uygulamasıyla çevrimdışı Player FM !
Intro to distributed
MP3•Bölüm sayfası
Manage episode 296991575 series 2921809
İçerik PyTorch, Edward Yang, and Team PyTorch tarafından sağlanmıştır. Bölümler, grafikler ve podcast açıklamaları dahil tüm podcast içeriği doğrudan PyTorch, Edward Yang, and Team PyTorch veya podcast platform ortağı tarafından yüklenir ve sağlanır. Birinin telif hakkıyla korunan çalışmanızı izniniz olmadan kullandığını düşünüyorsanız burada https://tr.player.fm/legal özetlenen süreci takip edebilirsiniz.
Today, Shen Li (mrshenli) joins me to talk about distributed computation in PyTorch. What is distributed? What kinds of things go into making distributed work in PyTorch? What's up with all of the optimizations people want to do here?
Further reading.
- PyTorch distributed overview https://pytorch.org/tutorials/beginner/dist_overview.html
- Distributed data parallel https://pytorch.org/docs/stable/notes/ddp.html
82 bölüm
MP3•Bölüm sayfası
Manage episode 296991575 series 2921809
İçerik PyTorch, Edward Yang, and Team PyTorch tarafından sağlanmıştır. Bölümler, grafikler ve podcast açıklamaları dahil tüm podcast içeriği doğrudan PyTorch, Edward Yang, and Team PyTorch veya podcast platform ortağı tarafından yüklenir ve sağlanır. Birinin telif hakkıyla korunan çalışmanızı izniniz olmadan kullandığını düşünüyorsanız burada https://tr.player.fm/legal özetlenen süreci takip edebilirsiniz.
Today, Shen Li (mrshenli) joins me to talk about distributed computation in PyTorch. What is distributed? What kinds of things go into making distributed work in PyTorch? What's up with all of the optimizations people want to do here?
Further reading.
- PyTorch distributed overview https://pytorch.org/tutorials/beginner/dist_overview.html
- Distributed data parallel https://pytorch.org/docs/stable/notes/ddp.html
82 bölüm
كل الحلقات
×Player FM'e Hoş Geldiniz!
Player FM şu anda sizin için internetteki yüksek kalitedeki podcast'leri arıyor. En iyi podcast uygulaması ve Android, iPhone ve internet üzerinde çalışıyor. Aboneliklerinizi cihazlar arasında eş zamanlamak için üye olun.