<04> BACK-PROPAGATION & AUTOGRAD

TESKARI HISOBLASH PYTORCHDA

4-DARS (ML-DL WITH PYTORCH)
circle-info

ESLATMA: Ushbu darsligimizdagi matematik hisob kitoblar sizga biroz qiyinlik qilsa, havotirlanishga o'rin yo'q. Shunchaki siz ma'nosini tushunishga va PyTorch kutubxonasidan qanday foydalanishni puxta egallashingiz yetarlicha bo'ladi.

BACKPROPAGATION

Video darsligimizda ta'kidlaganimizdek, w eng optimal qiymatini topish orqali biz model xatoligi (loss)ni minimal darajaga tushurishimiz bu DL va ML ning eng asosiy va ajralmas qismi hisolanadi. Backpropagation ning asosiy maqsadi, w ning qiymatini yangilash uchun loss dan w gacha oraliqda teskari tarzda zanjir qoidasi yordamida hisoblashni amalga oshirish. Backpropagation dan olingan natija esa, navbatida, gradient descent algortimida w ning qiymatini yangilashda foyadaliniladi.

O'tgan darslarimizda sizlar bilan qo'lda(manual) va avtomatik(automatic) hisoblashni ko'rgan edik, bu gal esa avtomatik hisoblashni to'liq pytorch orqali ko'rib chiqdik.

AMALIYOT

VAZIFA

Vazifa 4-1

x=2, y=4 hamda w ning taxminiy qiymati 1 ga tenga bo'lganda, computational graph ko'rinishidagi hisoblash qanday bo'ladi.

MATERIALLAR

file-pdf
839KB
4-darslik slayd.

Last updated

Was this helpful?